Conference Proceeding
Refine
Year of publication
Document Type
- Conference Proceeding (74) (remove)
Language
- German (61)
- English (12)
- Multiple languages (1)
Keywords
- Korpus <Linguistik> (13)
- Technikphilosophie (12)
- Lexikographie (8)
- Mediävistik (3)
- Demotisch (2)
- Deutsch (2)
- Edition (2)
- Griechisch (2)
- Ingenieur (2)
- Konferenz (2)
Has Fulltext
- yes (74)
Institute
- Berlin-Brandenburgische Akademie der Wissenschaften (40)
- Akademienvorhaben Strukturen und Transformationen des Wortschatzes der ägyptischen Sprache. Text- und Wissenskultur im alten Ägypten (19)
- Interdisziplinäre Arbeitsgruppe Gentechnologiebericht (14)
- Akademienvorhaben Monumenta Germaniae Historica (5)
- Zentrum Mittelalter (5)
- Veröffentlichungen von Akademiemitgliedern (3)
- ALLEA (2)
- TELOTA - IT/Digital Humanities (2)
- Akademienunion (1)
- Akademienvorhaben Altägyptisches Wörterbuch (1)
- Akademienvorhaben Berliner Klassik (1)
- Akademienvorhaben Digitales Wörterbuch der Deutschen Sprache (1)
Der Thesaurus Linguae Aegyptiae ist eine lexikalische Datenbank ägyptischer Texte. Durch die Verknüpfung einer Textdatenbank mit einem lexikalischen Wort-Thesaurus innerhalb eines modernen Navigationsprogramms sind vielfältige Abfragemöglichkeiten geschaffen worden, die weit über gedruckte Formate von Texteditionen und Wörterbüchern hinausgehen, diese aber nicht ersetzen sollen und können. Der TLA ist ein völlig neuartiges Instrument der Recherche und Forschung, das in diesem Aufsatz beschrieben wird.
The article summarizes the contents and the structurtal premises of the “Thesaurus Indogermanischer Text- und Sprachmaterialien” (TITUS), focussing on search functions and facilities and questions of the encoding of ancient languages written in various scripts. Examples are taken from Tocharian, Greek, Vedic Sanskrit, and other ancient Indo-European languages covered by TITUS.
Auf dem Hintergrund des umfassenden EDV-Einsatzes, der die vorbereitende Materialbereitstellung seit 1986 (Findebuch zum mittelhochdeutschen Wortschatz) bzw. 1994 (für das neue Mittelhochdeutsche Wörterbuch selbst) ebenso wie die Ausarbeitung und Publikation des neuen Mittelhochdeutschen Wörterbuchs seit 2006 kennzeichnet, beleuchtet der Beitrag den Gewinn von digitalen Textcorpora für Macher und Nutzer von historischen Belegwörterbüchern: Den Lexikographen verschafft ein umfangreiches digitales Textarchiv und daraus durch halbautomatische Lemmatisierung gewonnenes Belegarchiv, das in einem Redaktionssystem für die Artikelarbeit bereitgestellt wird, größere und leichtere Übersicht über den historischen Sprachgebrauch und entlastet sie von zeitraubenden Exzerptions- und Korrekturarbeiten; den Wörterbuchbenutzern wird es durch die Verknüpfung der Belegzitate bzw. Belegstellenangaben mit den digitalisierten und im Online-Angebot zur Verfügung gestellten Volltexten der Wörterbuchquellen ermöglicht, den Quellenbezug der lexikographischen Befunde zu rekontextualisieren. Aus der Erfahrung eines Vierteljahrhunderts der Vorbereitung und Ausarbeitung eines großen digitalen Belegwörterbuchs werben die Autoren für die Bereitstellung von umfassenden digitalisierten Textcorpora (einschließlich der Retrodigitaliserung der älteren lexikographischen Hilfsmittel) für die historische Sprachforschung selbst wie für die Nutzer ihrer Forschungsergebnisse. Eine umfassende Textdigitalisierung von historischen Sprachquellen des Deutschen steckt aber leider (im Gegensatz zur Bilddigitalisierung von Handschriften und gedruckten Büchern) trotz großer Anstrengungen und überzeugender Ergebnisse in einzelnen Vorhaben immer noch in den Anfängen oder wird zum Teil unter zu engen Gesichtspunkten betrieben.
Die Schaffung des Bonner Frühneuhhochdeutsch-Referenzcorpus "Frühneuhochdeutsch", das seit 2011 an der Ruhr Universität Bochum in Zusammenarbeit mit der Universitäten Halle und Potsdam geschaffen wird, kann auf zwei zwischen 1972-1985 geschaffenen Bonner Corpora aufbauen: das große Gesamtcorpus, bestehend aus 1500 Texten vom 14.-17. Jahrhundert (aufgebaut 1972-74) und einem elektronischen Teilcorpus, bestehend aus 40 annotierten Texten (aufgebaut 1972-1985). Das elektronische Teilcorpus diente bisher mit seiner Annotation von Flexionsformen in Forschung und Lehre. Datenbestand und Struktur dieses Teilcorpus werden für die Schaffung des neuen Referenzcorpus genutzt, korrigiert, um bisher nicht digitalisierte Texte aus dem Gesamtcorpus erweitert und nach neuen Standards annotiert. Dieses Referenzcorpus des Frühneuhochdeutschen wird als Teil in ein umfassendes Historisches Referenzcorpus des Deutschen einfließen (von den Anfängen der deutschen Überlieferung bis 1800). Es soll für die Forschung zum Frühneuhochdeutschen zur Verfügung stehen. Abgelöst davon soll das alte Bonner Teilcorpus weiterhin zur Nutzung bereit stehen.
Das Korpus des Deutschen Textarchivs soll als Basis für ein dynamisch erweiterbares historisches Referenzkorpus dienen. Sieben Anforderungen für eine Korpus-Infrastruktur werden benannt, die dazu dienen sollen, Texte in systematischer Weise für die historische Korpusforschung nutzbar zu machen. Dazu gehören ein Textsorteninventar, die Einheitlichkeit der Formate, eine Qualitätssicherung, Übergreifende Abfragbarkeit bei nichtstandardisierten Wortformschreibungen, Nachnutzbarkeit der Texte, offenen Infrastrukturen für die Erweiterung der Textbasis und dynamische Strukturen für Updates und verschiedene Versionen der Datenbasis. Dabei werden auch rechtliche (OpenAccess) und technische (Standardisierung der Formate) Eckpfeiler benannt.
Virtually all conventional text-based natural language processing techniques - from traditional information retrieval systems to full-fledged parsers - require reference to a fixed lexicon accessed by surface form, typically trained from or constructed for synchronic input text adhering strictly to contemporary orthographic conventions. Unconventional input such as historical text which violates these conventions therefore presents difficulties for any such system due to lexical variants present in the input but missing from the application lexicon. To facilitate the extension of synchronically-oriented natural language processing techniques to historical text while minimizing the need for specialized lexical resources, one may first attempt an automatic canonicalization of the input text. This paper provides an informal overview of the various canonicalization techniques currently employed by the Deutsches Textarchiv project at the Berlin-Brandenburg Academy of Sciences and Humanities to prepare a corpus of historical German text for part-of-speech tagging, lemmatization, and integration into a robust online information retrieval system.
Die Vielschichtigkeit der über 4500-jährigen schriftlichen ägyptischen Texttradition mit ineinander greifenden Sprachstufen, niedergelegt in verschiedene Schriftformen, hat einen adäquaten einheitlichen Zugang zum ägyptischen Wortschatz erschwert. Das Ägyptisch-Koptische wurde bisher lexikographisch separat innerhalb von Teildisziplinen erschlossen - für das Hieroglyphisch-Hieratische, für das Demotische und für das Koptische in jeweils eigenen Wörterbüchern. Um einen einheitlichen Zugang zum ägyptisch-koptischen Wortschatz zu schaffen und auch den Sprachwandel dieser Sprache besser abbilden zu können, wird eine integrierte elektronische Wortliste geschaffen, in der Lexeme aus allen Sprachstufen in allen überlieferten Schriftformen verzeichnet und miteinander vernetzt dargestellt werden. Die Schwierigkeiten bei der Abbildung des synchronen und diachronen Wortgebrauchs mit einem damit verbundenen Wechsel in Orthographie und Lautung sowie in Syntax und Semantik werden an ausgewählten Beispielen dargestellt.
Die demotische Wortliste steht als Liste aller demotischen Wortschreibungen für die Entzifferungsarbeit demotischer Texte zur Verfügung. In einer Präsentation werden die Abfragemöglichkeiten vorgestellt, wobei ein besonderer Schwerpunkt auf der Suche anhand der Graphien der Determinative liegt. Ferner wird die Wortliste um mögliche Wortschreibungen erweitert, die als Resultat von bekannten Lautveränderungen automatisch generiert werden. Damit können bei der philologischen Arbeit verschiedenste Wortformen auf einen Basiseintrag zurückgeführt werden.
Anhand einer Auswahl von lexikalischen, grammatischen und teils onomastischen Besonderheiten werden die besonderen Schwierigkeiten kursivhieratischer Texte demonstriert. Diese schwer lesbaren und oft vernachlässigten Texte sind besonders bedeutsam für die Erforschung der ägyptischen Sprachgeschichte, da aus der Zeit der kursivhieratischen Texte - also grob zwischen 750 und 550 v.Chr. - nur wenig Material in derselben Sprachstufe, aber anderen Schriftformen (hieroglyphisch, „normalhieratisch“ und demotisch), erhalten ist.
Der griechisch-ägyptische Sprachkontakt, wie er sich in der Anreicherung des ägyptischen Lexikons im 1. Jahrtausend n. Chr. mit mehr als 4500 griechischen Wörtern der meisten Wortarten und semantischen Felder darstellt, ist einer der am breitesten und dichtesten bezeugten Fälle von intensiver lexikalischer Entlehnung in der Antike. Doch die Erfassung und elementare Aufbereitung der relevanten Sprachdaten, d.h. die Lexikographie griechischer Lehnwörter im Koptischen, scheiterte mehrmals während des 20. Jahrhunderts und ist zu einem kardinalen Desiderat der ägyptischen Wortforschung geworden. Vom 1. April 2010 bis zum 31. März 2012 arbeitete am Ägyptologischen Institut der Universität Leipzig das in der Ausschreibung „Geistes- und Sozialwissenschaftliche Forschung“ des Sächsischen Staatsministeriums für Wissenschaft und Kunst und der Sächsischen Akademie der Wissenschaften zu Leipzig bewilligte Projekt Database and Dictionary of Greek Loanwords in Coptic (DDGLC). In dieser zweijährigen Pilotphase wurde die Möglichkeit getestet, das umfangreiche und in sich reich untergliederte Gesamtcorpus koptischer Texte lehnwortlexikographisch aufzuarbeiten. Dazu wurden in einer Arbeitsdatenbank konzeptuelle und technische Voraussetzungen geschaffen und eine lexikographische Praxis entwickelt und erprobt, die hier in gebotener Kürze vorgestellt werden sollen.
Der zentrale Gegenstand dieses Beitrags ist die Frage, wie Themen als grundlegende Aspekte der sprachlichen Verständigung mit dem Wortgebrauch zusammenhängen und wie diese Zusammenhänge - die thematische Prägung des Wortgebrauchs - auch für die lexikographisch-lexikologische Dokumentation des Wortgebrauchs fruchtbar gemacht werden kann. Es wird auf Ergebnisse der Gesprächsforschung, der Textlinguistik und der Diskursforschung zurückgegriffen. Anhand von Beispielen (u.a. aus den Themenbereichen Rassenhygiene, Naturschutz, Sport/Fußball, Hygiene, Technik und Haushalt) werden Vorschläge gemacht, wie man den Themenbezug historischer Kommunikation und die thematische Prägung lexikalischer Mittel auch in lexikographischen Darstellungen stärker verankern kann. Anhand von zwei Textbeispielen wird auch erläutert, wie thematische Schlüsseltexte lexikographisch-lexikologisch genutzt werden können, um historische Systemstellen von Themen und Teilthemen mit den entsprechenden Bereichen im Wortschatz zu füllen.
In 20 articles experts from research, politics and research management discuss current challenges and future advancements of European research infrastructures for the humanities and social sciences, particularly in view of the funding scheme Horizon 2020 and the ESRFI Roadmap update. Starting with an overview of SSH infrastructures it elaborates on four specific areas that increasingly demand a pan-European approach. Drawing from the SSH infrastructure projects´ experience, it then (re-) defines the requirements and potential for next generation infrastructure projects. They highlight the developments and problems they anticipate, focussing in particular on advancing digitalisation in the SSH. The book draws together the insights gained at a conference of the same name, “Facing the Future”, held in Berlin in November 2013. The conference was attended by 70 experts from 19 European countries who met to discuss the new challenges posed by the increasing necessity of integrating digital research tools into everyday working life. It was organised by the European Strategy Forum on Research Infrastructures (ESFRI), the federation of All European Academies (ALLEA), the Union of the German Academies of Sciences and Humanities, and the German Data Forum. It took place as part of a project financed by the German Federal Ministry of Education and Research (BMBF) entitled Survey and Analysis of Basic Research in the Social Sciences and Humanities in Europe (SASSH).
The African European Mediterranean Academies for Science Education (AEMASE) initiative is committed to promoting science outreach to society and to improving the quality and accessibility of science education in schools throughout the eponymous North-South region. To achieve these aims, one of AEMASE’s key activities is implementing IBSE in more schools and supporting the continued professional development of science educators in IBSE methodology and practice. In the long term, the AEMASE partner institutions, which come from all three geographical areas, seek to contribute to the steady development of quality science and innovation systems by focussing on stimulating and supporting the future generations of researchers and innovators. In this context, key AEMASE partner institutions held an international conference on science education in Rome in May 2014, hosted by the venerable Accademia Nazionale dei Lincei. Participants from six continents shared their professional experiences with IBSE and discussed best practices, challenges and future collaboration opportunities. The conference brought together representatives from three crucial areas of expertise: science, education, and policy. The outcomes of this conference are condensed in the report which serves as a testament to the relevance and importance of quality science education for modern societies.
For a fistful of blogs: Discovery and comparative benchmarking of republishable German content
(2014)
We introduce two corpora gathered on the web and related to computer-mediated communication: blog posts and blog comments. In order to build such corpora, we addressed following issues: website discovery and crawling, content extraction constraints, and text quality assessment. The blogs were manually classified as to their license and content type. Our results show that it is possible to find blogs in German under Creative Commons license, and that it is possible to perform text extraction and linguistic annotation efficiently enough to allow for a comparison with more traditional text types such as newspaper corpora and subtitles. The comparison gives insights on distributional properties of the processed web texts on token and type level. For example, quantitative analysis reveals that blog posts are close to written language, while comments are slightly closer to spoken language.
Am 28. August 2013 konnte Prof. Dr. Eckhard Müller-Mertens, langjähriger Leiter der Arbeitsstelle Monumenta Germaniae Historica an der Berlin-Brandenburgischen Akademie der Wissenschaften, seinen 90. Geburtstag feiern. Zu seinen Ehren richtete das Mittelalterzentrum der Akademie am 14. September 2013 ein Kolloquium aus.