Lecture
Refine
Year of publication
Document Type
- Lecture (73) (remove)
Language
- German (57)
- English (10)
- Spanish (5)
- Multiple languages (1)
Keywords
- Digital Humanities (14)
- Computerunterstützte Lexikographie (9)
- Historische Lexikographie (9)
- historical lexicography (9)
- Digitalisierung (8)
- Edition (8)
- Information und Dokumentation (8)
- Bibliographie (6)
- Deutschland (6)
- Edición digital académica (5)
Has Fulltext
- yes (73)
Institute
- TELOTA - IT/Digital Humanities (23)
- Akademienvorhaben Deutsches Wörterbuch von Jacob Grimm und Wilhelm Grimm (17)
- Akademienvorhaben Jahresberichte für deutsche Geschichte (8)
- Drittmittelprojekt Proyecto Humboldt Digital (7)
- Akademienvorhaben Die alexandrinische und antiochenische Bibelexegese in der Spätantike (5)
- Drittmittelprojekt CLARIN-D (3)
- Initiative Forschungsdatenmanagement (3)
- Drittmittelprojekt Deutsches Textarchiv (2)
- Drittmittelprojekt OCR-D (2)
- Zentrum Sprache (2)
Ediarum is an editing environment designed and implemented by TELOTA at the Berlin-Brandenburg Academy of Sciences and Humanities (BBAW, Germany). It is based on two main components: an open-source XML native database (eXistDB) and a widely used commercial XML editor (Oxygen XML editor).
The aim of ediarum is to facilitate the task of encoding texts in TEI format, to store the resulting XML files in eXistDB and to enable collaboration and sharing amongst the members of a team. The central framework of this environment --known as ediarum.BASE.edit-- allows the editor to hide the XML tags and use a number of functions through a toolbar and a menu. In other words, the ediarum.BASE.edit's interface increases the usability of the XML editor and speeds up the encoding process and can be adapted to each project's needs. However, this framework is only available in German language. In other words, the code and the language interface are only accessible for and usable by German-speaking users.
While the original goal of TELOTA was to “bridge the gap” between the markup and the editor (Dumont and Fechner, 2015), the interface language creates a barrier for encoders who do not work in German and impedes potential collaborations with other institutions. In order to break this usability and accessibility barrier, in 2020 Proyecto Humboldt Digital (ProHD), a cooperation project between the BBAW and the Oficina del Historiador de la Ciudad de la Habana (Cuba), engaged with an adaptation process involving the internationalization of the software (developing features and code that are independent of language or locale) and the localization in the Spanish locale (creating resource files containing translations). As a result of this process, the project has developed a localization of ediarum.BASE.edit called ediarum.PROHD.edit that can be downloaded on Github.
This paper aims to present ediarum.PROHD.edit and to reflect on the most important challenges encountered during the software localization. After reviewing what “localization” means in Translation Studies (Pym, 2016; Jiménez Crespo, 2016), I will discuss the process of internationalization of the software (mostly variables written in ediarum's default functions), the localization itself (the translation of terms and descriptions displayed in the interface) and some testing undertaken with the Cuban team of Proyecto Humboldt Digital.
Entre la digitalización y la edición digital : retos y avances de “Proyecto Humboldt Digital”
(2022)
Tras la presentación de los objetivos, se discute los principales retos encontrados en Proyecto Humboldt Digital: sesgos de la digitalización, selección de documentos, Covid-19, embargo estadounidense, software libre, alianzas poscustodiales; asimismo se presentan los avances principales: flujo de trabajo, digitalización, adaptación de herramientas, documentación de criterios, edición de fuentes históricas, construcción de sitios web, exposición y actividades de difusión.
Las ediciones digitales académicas suelen definirse como ediciones académicas que se guían por el paradigma digital en su teoría, método y práctica. Aunque esta definición es útil como punto de partida, los estudios sobre los usos potenciales de este tipo de publicación en formato digital siguen siendo escasos; asimismo, los proyectos digitales a menudo se limitan a dar acceso y a preservar los textos sin interrogarse sobre cómo pueden utilizarse para investigar. Con esta conferencia, pues, se pretende revisar la definición de edición digital académica, presentar una tipología que ayude a editores y a usuarios a orientarse y, por último, ilustrar algunos usos ejemplares de reutilización y análisis.
Con esta comunicación pretendemos debatir sobre los principales retos y oportunidades que supone un proyecto de cooperación entre la Academia de las Ciencias y las Humanidades de Berlín (BBAW) y la Casa Humboldt de la Oficina del Historiador de la Ciudad de La Habana (OHCH); asimismo, presentaremos los primeros avances realizados en la digitalización y edición digital con métodos filológicos de un corpus de textos centrado en la recepción del pensamiento antiesclavista de Alexander von Humboldt y en la realidad colonial de la isla.
El corpus seleccionado se define por su naturaleza transnacional y multilingüe (español, francés y alemán) y por su dispersión física, pues los documentos se encuentran en varias bibliotecas y archivos cubanos, alemanes y polacos. Gracias a las posibilidades de interconexión y reutilización del medio digital, este proyecto se propone preservar y dar acceso digital a una colección coherente y unitaria desde un punto de vista temático. De esta manera, los usuarios obtendrán una mirada nueva y completa al problema de la esclavitud y al funcionamiento del sistema colonial, que condenaba a la isla al monocultivo y a importar bienes de primera necesidad procedentes de la Metrópolis.
El proyecto cuenta con un equipo internacional y multilingüe capacitado para incrementar el acceso a través de internet del patrimonio cultural cubano-alemán. Con tal fin, se ha adquirido equipamiento (ordenadores, escáneres de alta resolución, impresora, mobiliario, etc.) adecuado con el que se digitalizarán los documentos preservados en Cuba. Asimismo, se espera definir una metodología en común que asegure la sostenibilidad de los archivos de imágenes en formato estándar (TIFF), la identificación y descripción de los objetos digitales mediante metadatos, la obtención de texto completo de las obras impresas por medio de tecnologías OCR, la representación de la estructura de los textos con lenguaje de marcado TEI/XML y, finalmente, la publicación de ediciones académicas digitales en una plataforma abierta y multilingüe.
Was macht gute Software aus? Wie stellt man sicher, dass man die Bedürfnisse der Benutzer und anderen Stakeholder richtig versteht, priorisiert, kommuniziert und umsetzt? Wie definiert man Balance und Zeitablauf für Planung, Design, Architektur, und Implementierung? Was muss man modellieren und was nicht? Braucht man User Stories oder Use Cases? Und wer macht was in einem kleinen Team? Ist häufige Iteration die Lösung aller Probleme? Dieser Vortrag versucht aufzuzeigen, worauf es wirklich ankommt – in einem Spagat zwischen klassischem Requirements Engineering, agiler Softwareentwicklung und modernem Interaktionsdesign.
In the last decade, interaction between scholarly lexicography and the public has grown enormously. While in the old days, the lexicographer and in particular, the scholarly lexicographer, had a tendency to describe the lexicon from an ivory tower, in a way that was for the general public rather unaccessible, a change has been evident for some time now. Interaction with the general public is now more and more appreciated and is even being stimulated within the lexicographic community. This holds too for the Algemeen Nederlands Woordenboek (ANW), a project of the Institute for Dutch Lexicology in Leiden. The ANW is an online scholarly dictionary of contemporary Dutch. In its periodization it is the successor of the Woordenboek der Nederlandsche Taal (WNT), which was completed in 2001 and covers the vocabulary of the Netherlands and Flanders up to around 1976. The editorial staff of the ANW would like to create a dictionary that is suitable for different audiences, ranging from language professionals and other academics to pupils, students and language enthusiasts in general. Consequently, interaction with the public is very important to the ANW editorial staff. It is realised in various ways. First, each dictionary article offers users the option to give feedback. Second, the editorial staff uses questions and comments gathered on internet forums, such as Meldpunt Taal (launched in June 2010) and Neo-term. The ANW staff also approaches the public directly through Twitter, with items such as ‘neologism of the week’, facts about spelling and answers to questions about language that have been received. A relatively new initiative is to call upon the public in the search for information for the dictionary, such as synonyms, pictures and the earliest use of words. Language games and word polls are other ways to increase the interest and involvement of the general public in the ANW.
Wie jedes Wörterbuch steht auch die Neubearbeitung des Grimm vor der Schwierigkeit dem Lexikonparameter der Akkuratheit der Information Genüge zu tun und gleichzeitig die Informationsdarstellung und Textorganisation aus ökonomischen Gründen so knapp wie möglich zu halten. Die sich daraus ergebenden Darstellungs- und Ausdrucksformen (unterschiedliche Schrifttypen und Schriftneigungen, Kapitälchen, Abkürzungen, runde, eckige oder spitze Klammern, Absätze, Gliederungsmarken und vieles andere mehr) helfen, die Artikelkonstituenten zu definieren und Informationstypen zu unterscheiden. Aus persönlicher Erfahrung weiß ich, daß selbst erfahrene Nutzer des Deutschen Wörterbuchs nicht alle angebotenen Informationen erkennen oder die verschiedenen Ausdrucksformen richtig zu deuten wissen. An ausgewählten Beispielen aus der Neubearbeitung soll das z. T. diffizile und komplexe System der Darstellungs- und Ausdrucksformen, das auch als Reaktion auf den etwas sorglosen Umgang der Brüder Grimm in den ersten Bänden der Erstauflage entstanden ist, vorgestellt werden, das sich zwar um äußerste Genauigkeit bemüht, für den Nutzer aber auch manchmal schwer zu durchschauen ist. Der Ausblick auf die Möglichkeiten, die ein elektronisch-lexikographisches System in dieser Hinsicht bieten könnte, schließt den Vortrag ab.
Da einerseits die informelle Partizipation an der Kultur des Internet durch Digital Natives nicht unmittelbar auf das Erlernen komplexer wissenschaftlicher Informations- und Medienkompetenz übertragbar ist, andererseits im geschichtswissenschaftlichen akademischen Unterricht die Komplexität digitaler und/oder virtueller geschichtswissenschaftlicher Ressourcen kaum zu vermitteln ist, müssen Bibliotheken gemeinsam mit den Fachbereichen effiziente Strategien entwerfen, Studierenden geschichtswissenschaftliche Informationskompetenz nachhaltig zu vermitteln, die ein erfolgreiches Studium ermöglichen. Hierfür bietet das Modell der Teaching Library ein flexibel zu handhabendes Instrument. Die traditionelle produktorientierte "Datenbankschulung" wird ersetzt durch den kompetenzorientierten Umgang mit Fachressourcen im geschichtswissenschaftlichen Arbeitsprozess. Zu den traditionellen geschichtswissenschaftlichen Fachbibliographien treten immer komplexere Quellendatenbanken, die schon heute eine ganz neue Qualität quellenbasierten historischen Arbeitens ermöglichen. In diesem Sinne wird die geschichtswissenschaftliche Fachbibliographie der Zukunft im Verständnis eines erweiterten Bibliographiebegriffs eine Scharnierfunktion zwischen unterschiedlichen Quellendatenbanken, Virtuellen Fachbibliotheken, Virtuellen Forschungsumgebungen und Kulturportalen einnehmen.
Der Beitrag informiert über Kollationsverfahren und Formen der Textpräsentation, die im Rahmen des Parzival-Projekts praktiziert und erprobt werden. Der 'Parzival'-Roman Wolframs von Eschenbach gerät dabei von seiner Überlieferung her in den Blick: Zur Darstellung gelangen handschriftliche Erscheinungsweisen und die Varianten einzelner Textfassungen. Durch die Nutzung von Datenbanken können dynamische Präsentationsformen erzeugt werden, in denen die Betrachter selbständig eine Synopse von Textzeugen bzw. Fassungen zusammenstellen. Die konzeptionellen und technischen Grundlagen dieses Verfahrens werden im Rahmen des Beitrags erläutert. Die angegebene URL führt zur Testedition.
Der Vortrag gibt zunächst einen Einblick in die Erstellung TEI-XML-basierter Text-Editionen mit einem Fokus auf Handschriften des 19. Jahrhunderts (am Beispiel der Nachschriften zu Humboldts Kosmos-Vorlesungen 1827/28 in Berlin). Anhand dessen wird erläutert, inwiefern sich die Repräsentation historischer Textzeugen im Zuge des Medien- bzw. Paradigmenwechsels von printorientierten Formaten hin zu genuin digitalen Editionsformen verändert. Dies hat zum einen Auswirkungen auf Produktionsseite, d.h. auf die editorische Praxis, vor allem aber – und hierauf wird der Schwerpunkt des Vortrags liegen – auf die Rezeptionsseite: Digitale Edition müssen nicht nur anders konzipiert und produziert, sondern auch anders gelesen werden, will man das Potential der (in der germanistischen Editionsphilologie teilweise immer noch:) ‘neuen’ Medien ausschöpfen. Die Editionspraxis schreitet von der linearen Auszeichnung textoberflächlicher Phänomene bzw. deren an- oder nachgelagerter diskursiver, spezifischer Beschreibung weiter in Richtung standardisierter, formalisierter Annotation, die in die mehrdimensionale, vielschichtige Tiefe des Textzeugen führt.
Einführung Textkritik
(2017)
Das Personendaten-Repositorium sammelt und bereitet biographische Daten auf, die in verschiedenen Forschungsvorhaben und unter unterschiedlichen wissenschaftlichen Perspektiven entstanden sind. Die Schwierigkeiten, die sich bei einem solchen Projekt für die Strukturierung und Organisation der Daten ergeben, rühren nicht nur daher, dass sie aus unterschiedlichen Kontexten stammen. Vielmehr werden an Hand der Quellen-Diversität grundsätzliche Probleme biographischen Arbeitens, in deren Zusammenhang die Personendaten stehen, deutlich, denen eine solche Infrastruktur Rechnung tragen muss.
Um die Möglichkeiten und Risiken, die sich durch virtuelle Forschungsplattformen ergeben, besser einschätzen zu können, erscheint es sinnvoll, ihre Stellung in Zusammenhang mit der gesamten virtuellen Infrastruktur in der Forschungs- und Wissenschaftslandschaft zu denken. Hierbei wird deutlich, dass ihre Aufgabe nicht so sehr darin bestehen kann, neue Funktionalitäten zu erfinden oder neue Ressourcen verfügbar zu machen, sondern eher darin gesehen werden muss, bestehende Anwendungen und Quellsysteme auf eine Art zu organisieren, bei der sich der Mehrwert für den Benutzer durch die Integration und das In-Beziehung-Setzen derselben ergibt. Dies gilt insbesondere für die Organisation von Wissen. Erfolgreich haben Initiativen wie Open Access auf der politischen und DINI (Deutsche Initiative für Netzwerkinformation) auf der technischen Seite dazu beigetragen, dass die Ergebnisse von Forschung zunehmend in digitaler Form vorliegen und zumeist innerhalb von Repositorien, deren Zahl - wie z.B. auf OpenDOAR zu sehen - unaufhaltsam wächst, verfügbar sind. Eine Herausforderung stellt daher immer mehr die Integration und Nutzbarmachung von Wissen dar. Als Ergebniseintrag 21 im Repositorium eines Universitäts-Instituts ist der Titel eines Aufsatzes eine isolierte Information. In Beziehung gesetzt zu anderen Ressourcen und statistisch und semantisch kontextualisiert in Verbindung mit anderen Systemen wird er zu anschlussfähigem Wissen. Unter Anderem für diese Aufgabe soll mit dem Wissensspeicher der BBAW, der zur Zeit entwickelt wird, eine Lösung gefunden werden. Er versteht sich als eine Plattform, in der die Vielgestaltigkeit der Akademie, die sich durch ihre vielfältigen Forschungsvorhaben ergibt und die sich in verschiedenen Interessenszusammenhängen, Ressourcen und Ressourcensystemen ausdrückt, integriert wird, und die sich ihrerseits wiederum die Aufgabe setzt, sich in bestehende Services einzubringen und diese in dem durch die Plattform neu geschaffenen Kontext zu nutzen. Eine virtuelle Forschungsplattform kann daher auch als Ort angesehen werden, an dem sich inhaltliche, technische und strukturelle Heterogenität sowohl intern als auch extern harmonisieren und zusammenführen lässt und damit einen fruchtbaren Umgang mit Wissen in der digitalen Welt überhaupt erst möglich macht.
Norsk Ordbok is a 12 volume academic dictionary covering Norwegian Nynorsk literature and all Norwegian dialects from 1600 to the present. The dictionary is to be completed in 2014, the year of the bicentenary of the Norwegian constitution. The collection of data started in 1930 and the editing of the dictionary started in 1946. In the 1990s the Norwegian language collections were digitized, and from 2002 onwards Norsk Ordbok has been edited on a digital platform which communicates with a system of relational databases for manuscript storage. These databases include digitized slip archives, a draft manuscript from 1940, glossaries from the period between 1600 and 1850, canonical dictionaries from the period 1870-1910, bibliography, local dictionaries, text corpus (90 mill. words) etc. The source material is linked together in a Meta dictionary (MD). The MD is an electronic index with headwords in standard spelling, and it represents the hub of the language collections, where the source material from the databases is linked to headword nodes. This MD in turn communicates with the editing system and the dictionary database. The electronic linking up of the source material with the dictionary entries secures that the interpretation of data and product of scientific research can be reproducible in a very easy way. This is important to a scholarly dictionary. Further, the MD index system enables us to set a relative dimension for each dictionary entry and to make a master plan for setting alphabet dimensions for the whole dictionary. This is important to all modern dictionary projects with limited resources. The digitized source material, the digital editing platform and the digital dictionary product also point forward to new ways of presenting the data, and they point forward to future lexicographical research. The paper will present the digital resources of the Norsk Ordbok 2014 project, developed in close cooperation with the scientific programmers at the Unit of Digital Documentation at the University of Oslo. It will focus on the Norsk Ordbok 2014 experience with working on a fully digitized editing platform for the last 10 years, and it will also comment briefly on how the developed tools and resources point forward into Norwegian lexicography in the future.