E-Pflicht, Kunstfilme und Veterinärmedizin: Einblicke in die digitale Langzeitarchivierung bei LiLA.NDS

ein Beitrag von Markus Bierkoch (GWLB), Sven Grabenhorst (HBK), Sabine Leonhard-Marek (TiHo), Jesko Rücknagel (TIB) und Frauke Stiller (HBK).

Nachdem bereits drei Einrichtungen der ersten Projektkohorte ihre Einrichtung und das Sammelprofil, die Motivation zur Beteilung an der Landesinitiative sowie ihre im Rahmen von LiLA.NDS zu bearbeitenden Bestände im letzten Blogpost vorstellen konnten, folgen nun drei weitere Einrichtungen des ersten Bearbeitungsjahres.

Unterschiedliche Medien und Bestände werden gemeinsam mit der TIB auf ihre Datenqualität geprüft, strukturiert, und perspektivisch mit Hilfe entwickelter Workflows in das Langzeitarchiv der TIB transferiert.

In den folgenden Kurzinterviews berichten Vertreter:innen der Gottfried Wilhelm Leibniz Bibliothek (GWLB) , der Hochschule für Bildende Künste Braunschweig sowie der Tierärztlichen Hochschule Hannover über die verantwortungsvolle Aufgabe, ihre digitalen Bestände langfristig zu sichern.

Gottfried Wilhelm Leibniz Bibliothek

Dr. Markus Bierkoch berichtet über die aktuellen Aufgaben, die die GWLB als Pflichtexemplarbibliothek für Niedersachsen übernimmt. Seit 2025 gelten zusätzlich auch elektronische Publikationen aus Niedersachsen als Pflichtexemplare. Neben der Erschließung und Bereitstellung muss die GWLB auch die dauerhafte Archivierung der Pflichtexemplare sicherstellen. Darüber hinaus verfügt die GWLB über einen stetig wachsenden Bestand an Retrodigitalisaten wie des digitalisierten Leibniz-Nachlasses, aber auch zahlreiche historische Karten und Zeitungausgaben. Auch für diese Sammlung besteht ein Bedarf an einer digitalen Langzeitarchivierungslösung. Dies beinhaltet die Umsetzung der digitalen Langzeitarchivierung für die elektronischen Amtsdruckschriften und Pflichtexemplare sowie verschiedener Retrodigitalisate wie des digitalisierten Leibniz-Nachlasses, historischer Karten und Zeitungen.

Gemeinsam mit den Kolleg:innen Dr. Anne-Kathrin Henkel (stellvertretende Direktorin), Andreas Steinsieck (Abteilungsleitung Medienbearbeitung), Dr. Benedikt Tondera (Abteilungsleitung IT und Digitale Dienste), Manuela Schink (Sachbearbeitung E-Pflicht) und Olaf Guercke (Leiter der Stabsstelle Digitalisierung) beschäftigt sich Markus Bierkoch als Leiter des Sachgebiets Pflicht an der GWLB mit der Umsetzung der E-Pflicht im Rahmen einer zugeschnittenen IT-Lösung, die neben der Abgabe von elektronischen Pflichtexemplaren und deren automatisierte Verarbeitung auch die digitale Langzeitarchivierung umfasst.

Können Sie Ihre Einrichtung und deren Sammlungsschwerpunkte kurz vorstellen?

Die Gottfried Wilhelm Leibniz Bibliothek – Niedersächsische Landesbibliothek (GWLB) nimmt neben weiteren Aufgaben die Funktion der Pflichtexemplarbibliothek für Niedersachsen wahr. Sie hat den gesetzlichen Auftrag, Veröffentlichungen aus Niedersachsen sowie Publikationen mit Bezug zu Niedersachsen zu sammeln, bibliografisch zu erschließen, bereitzustellen und dauerhaft zu erhalten. Traditionell umfasste dies vor allem gedruckte Bücher, Zeitschriften und Zeitungen.

Inzwischen entstehen jedoch große Teile der regionalen Literaturproduktion ausschließlich digital, etwa E-Books oder E-Journals. Dem trägt das seit 2025 geltende Niedersächsische Pflichtexemplargesetz (NPflExG) Rechnung, auf dessen Basis nun auch elektronische Veröffentlichungen Pflichtexemplare darstellen. Für die Umsetzung dieses Auftrags wird an der GWLB zurzeit die entsprechende IT-Infrastruktur entwickelt. Ein zentrales Element davon ist die digitale Langzeitarchivierung, um auch elektronische Publikationen dauerhaft zu erhalten.

Gibt es ein digitales Objekt oder eine Sammlung, die Ihnen besonders am Herzen liegt?

Niedersächsisches Ministerium für Ernährung, Landwirtschaft und Verbraucherschutz (Hrsg.), Waldzustandsbericht, Bd. 2025. CC BY 4.0

Besonders wichtig ist für uns zum einen der bereits bestehende sowie der künftig noch zu sammelnde Bestand an elektronischen Amtsdruckschriften und Pflichtexemplaren. Gemäß unserem gesetzlichen Auftrag treffen wir beim Sammeln von Pflichtexemplaren keine inhaltliche Auswahl. Der Pflichtexemplarbestand bietet dementsprechend einen breiten Querschnitt des kulturellen und wissenschaftlichen Lebens in Niedersachsen. Die Erforschung dieses umfangreichen geistigen Erbes soll auch noch in Jahrhunderten gewährleistet sein.

Darüber hinaus sind die zahlreichen Retrodigitalisate in unseren Digitalen Sammlungen von besonderer Bedeutung. Dazu zählt zum Beispiel der digitalisierte Nachlass von Leibniz, dessen Briefwechsel in das Weltdokumentenerbe aufgenommen wurde. Darüber hinaus hat die GWLB in den letzten Jahren aber auch zahlreiche historische Bücher, Handschriften und Karten sowie die bedeutende regionale Tageszeitung Hannoverscher Courier (1854 bis 1944) digitalisiert, welche für die landeskundliche Forschung einen hohen Wert besitzen. Dementsprechend muss auch für diesen digitalen Bestand eine dauerhafte Sicherungslösung gefunden werden.

Brief von Joachim Bouvet an Gottfried Wilhelm Leibniz vom 19. September 1699 aus Peking (China), in: Briefwechsel Joachim Bouvet mit Gottfried Wilhelm Leibniz.

Was motiviert Sie, Ihre digitalen Bestände zu archivieren? Gab es einen Auslöser, der den Anstoß gegeben hat, sich mit digitaler Langzeitarchivierung auseinanderzusetzen?

Die Motivation ergibt sich in erster Linie aus unserem gesetzlichen Auftrag, elektronische Pflichtexemplare dauerhaft aufzubewahren und zugänglich zu halten. Ein konkreter Auslöser war daher das Inkrafttreten des Niedersächsischen Pflichtexemplargesetzes (NPflExG). Das Gesetz macht deutlich, dass der um elektronische Pflichtexemplare erweiterte gesetzliche Sammelauftrag ohne digitale Langzeitarchivierung künftig nicht mehr erfüllbar wäre. Die Auseinandersetzung mit der digitalen Langzeitarchivierung ist daher weniger optional als vielmehr eine notwendige Weiterentwicklung unserer bibliothekarischen Kernaufgaben innerhalb eines sich mehr und mehr zum Digitalen hinwendenden Publikationsaufkommens.

Welche Unterstützung ist für Sie im Projekt besonders wertvoll?

Besonders wertvoll ist für uns zum einen die Unterstützung bei der Überführung historisch gewachsener digitaler Bestände in das digitale Langzeitarchivsystem. Unsere digitalen Bestände sind über die Jahre von verschiedenen Personen betreut sowie in verschiedenen technischen Systemen gepflegt worden. Außerdem haben sich über die Zeit hinweg entscheidende Rahmenbedingungen geändert zum Beispiel im Urheberrecht. Deshalb haben sich Inkonsistenzen bei Dateiformaten sowie Metadatenangaben eingeschlichen. Hierüber im fachlichen Austausch mit anderen Einrichtungen ein vertieftes Verständnis zu entwickeln und etwaige Datenbereinigungen zu planen, ist für uns von hoher Bedeutung.

Zum anderen ist es im Projekt besonders wertvoll, eine IT-Lösung für unsere spezifischen Anforderungen als Pflichtexemplarbibliothek zu entwickeln. Die Anforderungen, die sich aus dem Sammeln elektronischer Pflichtexemplare ergeben, unterscheiden sich häufig von denen der großen Mehrheit der Hochschul- und Universitätsbibliotheken. Sehr hilfreich ist, dass das LiLA.NDS-Team auf diese besonderen Anforderungen eingeht und gemeinsam mit uns sowie unseren weiteren Kooperationspartnern – der Verbundzentrale Göttingen (VZG) und dem Bibliotheksservice-Zentrum Baden-Württemberg (BSZ) – eine maßgeschneiderte Lösung plant und umsetzt.

Hochschule für Bildende Künste Braunschweig

Als nächstes blicken wir auf die Bibliothek der Hochschule für Bildende Künste Braunschweig (HBK). Im Rahmen des LiLA-Projekts befasst sich die HBK vor allem mit audiovisuellen Medien, die Performances, künstlerisches Schaffen und Reflektieren abbilden und wertvolle Forschungsobjekte für künstlerische Fächer darstellen. Dr. Frauke Stiller, die Bibliotheksleitung, und Sven Grabenhorst, zuständiger Mitarbeiter für die Video- und Filmbearbeitung, skizzieren für uns die Arbeit an der Videosammlung. Unterstützt von ihrem Kollegen Joachim Schulz (Systembibliothekar) arbeiten sie kontinuierlich daran, die Digitalisierung des VHS‑ und DVD-Bestands umzusetzen und die Inhalte ins LZA-System der TIB zu überführen, um sie dauerhaft für Forschung und Lehre zu sichern.

Können Sie Ihre Einrichtung und deren Sammlungsschwerpunkte kurz vorstellen?

Als Hochschulbibliothek besteht unser vordingliches Interesse in der Versorgung von Lehre und Forschung, der an der Hochschule gelehrten Fächer. Ein besonderer Schwerpunkt aber liegt in der Sammlung von Kunst der Gegenwart und der klassischen Moderne. In Bereichen also, in denen Performances, künstlerische Interventionen, künstlerische Arbeitsprozesse und das Reflektieren über Formen künstlerischen Arbeitens im Gespräch am besten auf zeitbasierten Medien wie Video abgebildet werden und glücklicherweise worden sind. Genau diese Videos können ein interessanter Forschungsgegenstand werden und ein Schatz sein.

Gibt es ein digitales Objekt oder eine Sammlung, die Ihnen besonders am Herzen liegt?

In der Sammlung der Videos befinden sich viele Arbeitsergebnisse des künstlerischen Arbeitens an der HBK selbst. So zum Beispiel eine Kassette mit Ergebnissen des Kurses Videopraxis vom Anfang der 80-er Jahre. Diese Arbeiten heute vor ihrem historischen Hintergrund zu sehen, ist spannend. 

Filmbild, Videopraxis 1983-1986, VC 165/83. © HBK Bibliothek

Was motiviert Sie, Ihre digitalen Bestände zu archivieren? Gab es einen Auslöser, der den Anstoß gegeben hat, sich mit digitaler Langzeitarchivierung auseinanderzusetzen?

Die Pläne einer Digitalisierung eines Teils unserer VHS-Bestände besteht schon länger. Um sie aber wieder allen berechtigten Nutzenden zugänglich zu machen, bedarf es eines Medienträgerwechsels. Die Anfrage aus der TIB zur Zusammenarbeit im Rahmen einer Langzeitarchivierung gab dann den Anstoß, das Projekt endlich anzugehen und um einen Teil des DVD-Bestandes zu erweitern. Die besondere Motivation liegt auch darin, die Werke unserer hauseigenen Künstler*Innen langfristig zu erhalten, um folgenden Generationen Inspirationsquelle und Forschungsobjekt zu sein.

Welche Unterstützung ist für Sie im Projekt besonders wertvoll?

Die Beratung durch das LiLA-Team, gerade in Bezug auf die vielen Kleinigkeiten und Probleme, die bei einem solchen Projekt auftreten, sind uns eine willkommene Unterstützung. Dies beinhaltet praktische Tipps bei der Erstellung von Workflows und Entscheidungen zu den Metadaten, genauso wie Hinweise zur rechtlichen Klärung. Wir freuen uns aber insbesondere auch über die ganz praktische und handfeste Unterstützung der Digitalisierung der DVDs selbst, wo die TIB mit ihrer Technik eine große Zeitersparnis für uns bedeutet. Dafür bedanken wir uns hier gern nochmal.

Tierärztliche Hochschule Hannover

Die Bibliothek der Stiftung Tierärztliche Hochschule Hannover (TiHo) verfügt über umfangreiche und teils seltene Bestände der Veterinärmedizin und betreibt zentrale Informationsdienste. Prof. Dr. Sabine Leonhard-Marek, die Leiterin der Hochschulbibliothek, spricht mit uns über die vielfältigen Bestände der TiHo – von den Digitalisaten historischer Monographien über Hochschulschriften bis hin zu seltenen Spezialbeständen sowie Kongressberichten – und die Motivation, diese langfristig zu bewahren. Unterstützt wird sie von ihrem Team Christina Gückel (stellvertretende Bibliotheksleiterin), Ngoc Anh Tran (Repositorium) und Sonja Hartinger (Hochschulschriften). Aufgrund der zunehmenden Digitalisierung der Forschung und der einhergehenden Verantwortung, digitale wissenschaftliche Publikationen dauerhaft verfügbar zu halten, bietet das Projekt die Möglichkeit verschiedene Herausforderungen zu adressieren.

Können Sie Ihre Einrichtung und deren Sammlungsschwerpunkte kurz vorstellen?

Als zentrale Einrichtung der Universität versorgt die Bibliothek der Stiftung Tierärztliche Hochschule Hannover (TiHo) Forschende und Studierende mit Fachinformationen aus der Veterinärmedizin und angrenzenden Fächern. Sie stellt die für Forschung, Studium und Lehre essenziellen Informationsinfrastrukturen für Recherche und Publikation bereit und sorgt durch die Beratung zum Thema Open Access und die Unterstützung bei Publikationsvorhaben für eine erhöhte Sichtbarkeit des Forschungsoutputs.

Die Hochschulschriften (Dissertationen, PhD-Thesen und Habilitationen) werden an der TiHo seit Ende 2000 parallel zur Druckausgabe auch elektronisch veröffentlicht. Diese Veröffentlichungen wurden zunächst auf von der TiHo intern betriebenen Plattform bereitgestellt und sind 2019 in das auf MyCoRe basierende Repositorium „TiHo eLib“ umgezogen. Außer diesen Primärveröffentlichungen werden auch die von TiHo-Forschenden im Open Access publizierten Fachartikel in der „TiHo eLib“ als Zweitveröffentlichung aufgenommen. Das Repositorium fungiert darüber hinaus als Hochschulbibliographie und hat damit die vorher gedruckt oder als PDF bereitgestellte Bibliographie abgelöst.

Perspektivisch sollen darüber hinaus die Digitalisate der „Digitalen Bibliothek Veterinärmedizin“ in das Repositorium umziehen. Im Rahmen eines von der Deutschen Forschungsgemeinschaft (DFG) geförderten Digitalisierungsprojekts wurden bis 2014 aus den Beständen der Bibliothek insgesamt 1.436 zwischen 1599 und 1890 erschienene Monographien digitalisiert, nachbearbeitet, katalogisiert, archiviert und als „Digitale Bibliothek“ frei suchbar und nutzbar gemacht.

Landwirthschaftliches Tierracen-Album © Bibliothek der Tierärztlichen Hochschule Hannover

Als ehemalige Sondersammelgebietsbibliothek für die Veterinärmedizin und die allgemeine Parasitologie verfügt die TiHo über fachlich seltene und einmalige Bestände, die langfristig erhalten werden sollen. Hierzu gehören nicht nur die oben beschriebenen Monographien, die über Digitalisate überregional nutzbar gemacht wurden, sondern auch Kongressberichte und andere graue Literatur, die nur in digitaler Form vorliegt und dies zum Teil auf elektronischen Trägermedien, deren Funktionalität endlich ist.

Was motiviert Sie, Ihre digitalen Bestände zu archivieren? Gab es einen Auslöser, der den Anstoß gegeben hat, sich mit digitaler Langzeitarchivierung auseinanderzusetzen? Gibt es ein digitales Objekt oder eine Sammlung, die Ihnen besonders am Herzen liegt?

Ludwig Daum: Ueber das Koppen der Pferde. © Bibliothek der Tierärztlichen Hochschule Hannover

Der Forschungsoutput der Hochschule umfasst zunehmend genuin digitale Publikationen, so dass wir es im Rahmen der Bestandserhaltung als unsere Aufgabe ansehen, auch diesen digitalen Output als Bestand zu erhalten und ihn langfristig zu sichern. Zum Teil ist diese digitale Kopie eine zweite Kopie, da im Fall der Hochschulschriften über die Abgabe an die Deutsche Nationalbibliothek und im Fall der Artikel in Fachzeitschriften weitgehend über die jeweiligen Verlage die Archivierung einer weiteren Kopie zugesagt ist. Studien haben aber in der Vergangenheit gezeigt, dass nicht alle Artikel in wissenschaftlichen Zeitschriften durchgehend abrufbar sind (zum Beispiel Laakso et al. 2021). Da es sich um Forschungsleistungen der eigenen Hochschule handelt, liegt uns die dauerhafte Sicherung dieses Bestandes besonders am Herzen.

Das Repositorium der TiHo wird vom Gemeinsamen Bibliotheksverbund (GBV) gehostet, so dass die Metadaten der Hochschulbibliographie über Backup und Bitstream-Preservation gesichert sind. Die zukünftige Lesbarkeit der hochgeladenen Volltexte ist damit jedoch nicht abgedeckt und muss separat geplant werden.

Der aktuell für die Digitalisate genutzte Viewer ist in die Jahre gekommen und muss aktualisiert werden, so dass auch hier Handlungsbedarf bestand.

Welche Unterstützung ist für Sie im Projekt besonders wertvoll?

Insgesamt sind die engmaschige Betreuung und die gemeinsame Arbeit an optimalen Workflows in diesem Projekt besonders hervorzuheben. Dabei birgt jeder Projektteil besondere Herausforderungen. So haben wir zu Beginn die Fragen diskutiert, welche Publikationen bereits wie langzeitarchiviert werden und wann eine Doppelarchivierung empfehlenswert wäre. Die Digitalisate liegen in verschiedenen Formaten vor (TIFF, PDF, xml, txt, und sind zum Teil mit OCR erfasst). Hier wird im Rahmen des Projektes erarbeitet, welche Formate wie gespeichert und wie abrufbar sein sollen. Bei der grauen Literatur muss für die Langzeitarchivierung das Problem ungeklärter Rechtslagen berücksichtigt werden. Eine nachträgliche Rechteklärung ist oft nicht mehr möglich, weil die Rechteinhaber nicht ermittelbar oder erreichbar sind. Hier war die Expertise der TIB für die Entwicklung eines geeigneten Vorgehens ebenfalls sehr hilfreich.

Ausblick

Die Umsetzung der digitalen Langzeitarchivierung bleibt eine spannende, wenn auch herausfordernde Aufgabe für alle beteiligten Einrichtungen. Die Bearbeitung der ersten Projektkohorte wird auch in den nächsten Monaten intensiv fortgeführt, während die zweite Kohorte bereits in den Startlöchern steht.

Blogreihe „LiLA.NDS“
Im Rahmen einer begleitenden Blogreihe werden wir regelmäßig über den Projektfortschritt Landesinitiative Langzeitarchivierung Niedersachsen (kurz LiLA) berichten. So erhalten Interessierte außerhalb des Projektkonsortiums Einblicke in die Arbeit von LiLA. In den kommenden Beiträgen stellen sich die beteiligten Einrichtungen vor, berichten über ihre zu archivierenden Bestände und erläutern, warum die digitale Langzeitarchivierung für sie von besonderer Bedeutung ist. Damit ist die Blogreihe eine wichtige Säule in der geplanten Wissensbasis, die es dem Projekt ermöglicht, Best Practices vorzustellen und Einblicke in die Umsetzungsphase zu geben.
[1] Laakso, M., Matthias, L., & Jahn, N. (2021). Open is not forever: A study of vanished open access journals. Journal of the Association for Information Science and Technology, 72(9), 1099–1112. https://doi.org/10.1002/asi.24460

#Services #LiLANDS #LizenzCCBY40INT #DigitaleLangzeitarchivierung #Bestandserhaltung #Digialisierung

Students @ TIB: Theorie trifft Praxis – neue spannende Themen für Qualifizierungsarbeiten an der TIB

Die TIB ist nicht nur Universitätsbibliothek, sondern auch Forschungseinrichtung mit fachlichen Schwerpunkten wie Data Science & Digital Libraries, Scientific Data Management, Visual Analytics, nicht-textuellen Materialien und Open Science. Studierende einschlägiger Fachbereiche haben die Möglichkeit, ihre Qualifikationsarbeiten oder Praktika mit direktem Bezug zu aktuellen Forschungsprojekten der TIB zu absolvieren. Die aktualisierte Seite Students @ TIB gibt einen strukturierten Überblick möglicher Themen, die TIB-Mitarbeiter:innen für Studierende dort eingestellt haben.

Bei der Überarbeitung der Seite wurde sichergestellt, dass sie klar verständlich und gegliedert, auf mobilen Endgeräten nutzbar ist sowie aktuelle Themenvorschläge der TIB-Mitarbeiter:innen enthält. Außerdem wird die Seite fortan zweisprachig geführt: auf Deutsch und Englisch.

Anlass der Überarbeitung war, dass das Joint Lab Future Libraries & Research Data, die Einrichtung an der Schnittstelle zwischen der TIB und der Hochschule Hannover (HsH) die Pflege der Seite übernommen hat. Auch wenn das Joint Lab primär die Schnittstelle zur HsH betreut, sind ausdrücklich auch Studierende der Leibniz Universität Hannover (LUH) und anderer Hochschulen und Universitäten eingeladen, das Angebot zu nutzen.

Haus-, Bachelor-, Masterarbeit, Promotion oder ein Praktikum an der TIB

Studierende, die eine Haus-, Bachelor-, Masterarbeit, Promotion oder ein Praktikum planen, können sich eines der beschriebenen Angebote aussuchen und die angegebenen Kontaktpersonen anschreiben. Neben den auf der Seite skizzierten Ideen sind auch eigene Themen willkommen. Ein Blick auf die Webseiten der Forschungsgruppen und Labs kann helfen, relevante Ansprechpersonen zu finden.

Der Neustart der Seite fördert die bessere Vernetzung zwischen Hochschulen sowie zwischen Studierenden, Lehrenden und Forschenden. Die Mitarbeiterinnen des Joint Labs und die gesamte TIB freuen sich, wenn das Angebot (weiterhin) rege genutzt wird und auf diesem Wege interessante studentische Arbeiten entstehen. In der Vergangenheit haben sich so auch schon längerfristige Zusammenarbeiten ergeben.

Ein Aufruf an TIB-Mitarbeiter:innen

Mitarbeiter:innen der TIB, die eine Idee für eine Qualifikationsarbeit oder ein Praktikumsangebot haben, können diese jederzeit eigenständig auf der Students-@-TIB-Wiki-Seite eintragen. Das Template für Angebote ist am Seitenende zu finden. Bei Fragen können die Mitarbeiterinnen des Joint Labs kontaktiert werden.

Kontakt

Joint Lab Future Libraries & Research Data

Dr. Nina Düvel, Hochschule Hannover: [email protected]

Franziska Altemeier, TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften und Universitätsbibliothek: [email protected]

Joint Lab Future Libraries & Research Data

#ForschungUndEntwicklung #Ausbildung #Themensammlung #Studium #studentsTib #Abschlussarbeit #LizenzCCBY40INT

Upgrade abgeschlossen: Semantic Wikibase kompatibel mit MediaWiki 1.43

Wir freuen uns, bekanntzugeben, dass Semantic Wikibase erfolgreich auf Kompatibilität mit MediaWiki 1.43 aktualisiert wurde. Mit diesem Schritt stellen wir sicher, dass Semantic Wikibase weiterhin mit der aktuellen Longterm-Support-Version von MediaWiki kompatibel bleibt und als stabile Grundlage für semantisch angereicherte Wissensinfrastrukturen dient.

Über Semantic Wikibase

Viele Forschungsprojekte setzen das Mediawiki-Framework als Werkzeug für Forschungsdatenmanagement ein. Mit über 1.500 Erweiterungen lässt sich dieses an die individuellen Anforderungen anpassen:

  • als reines Wiki mit Text und Medien, organisiert in Artikelseiten nach dem Vorbild von Wikipedia,
  • als strukturierte Wissens-Datenbank zur Linked-Open-Data Implementierung von Wissensgraphen und Terminologien mittels Wikibase,
  • als semantischer Wissensspeicher zur Datenvisualisierung mittels Semantic Mediawiki.

Semantic Mediawiki vs. Wikibase

Insbesondere Wikibase und Semantic Mediawiki werden häufig im Forschungsumfeld verwendet. Beide Erweiterungen haben unterschiedliche Stärken und Schwächen:

Vergleich von Wikibase and SMW (Grafik by Bernhard Krabina)

Semantic Mediawiki und Wikibase

Die Entwicklung von Semantic Wikibase (SWB) ermöglichte es erstmals, beide Erweiterungen gemeinsam auf einem System zu verbinden und so die Vorteile beider Systeme gemeinsam zu nutzen. Während strukturelle Wissensdaten in Wikibase gespeichert und verwaltet werden, sorgt die SWB-Erweiterung dafür, dass diese auch in Semantic Mediawiki für die Visualisierung in Wiki-Artikeln verfügbar sind. SWB dient also quasi als Brücke zwischen den beiden Erweiterungen, wobei der Datenfluss nur von Wikibase nach Semantic Mediawiki (nicht umgekehrt) erfolgt. Dies dient dazu, Datenkonflikte zu vermeiden.

Semantic Wikibase wurde im September 2020 in einer ersten Version vom Unternehmen ProfessionalWiki veröffentlicht. Dieser erste Prototyp war nur mit der älteren Mediawiki Version 1.35 kompatibel, aber unterstützte bereits grundlegende Datentypen. Im Open Science Lab sahen wir in der Entwicklung einen Baustein, der das Potenzial hat, im Mediawiki-Umfeld eine bedeutende Lücke zu schließen: Die Kombination aus strukturierter, föderierbarer Datenverwaltung und Datenpräsentation. Unser Ziel war es, die Erweiterung zu testen, bei Bedarf weiterzuentwickeln und künftig als unser Content-Management-System zur Unterstützung von Forschungsprojekten zu verwenden.

Case Studies

Mitte 2024 wurde mit dem Projekt PhiWiki ein erster Prototyp für Mediawiki 1.39 in Zusammenarbeit mit der Akademie der Wissenschaften und der Literatur Mainz sowie der AG Digitale Philosophie erfolgreich getestet. Es folgte mit Semantic Glossar ein weiteres Projekt zur kollaborativen Entwicklung von Terminologien mittels Semantic Wikibase.

Ende 2024 konnten wir im Rahmen des Projekts Herrenhäuser des Ostseeraums Semantic Wikibase dann in einem umfangreichen Projekt einem herausfordernden Lasttest unterziehen. Mit über 14.000 Wikibase-Objekten, die auf mehr als 300 Artikelseiten dynamisch eingebettet als Karten, Zeitstrahlen, Tabellen und Suchformulare verwendet werden, konnten wir die bestehenden Schwächen von Semantic Wikibase identifizieren und beheben. Dazu gehörte unter anderem die Unterstützung des vollen Wikibase-Datenmodells mittels Qualifiers, eine erste grundlegende Unterstützung des Extended Datetime Formats (EDTF) sowie die Einbettung von 3D-Visualisierungen aus Semantic Kompakkt. Entscheidend war hierfür die interdisziplinäre Zusammenarbeit zwischen dem Enwicklerteam und den LOD- und Wikibase-Datenmodell-Expertinnen Lozana Rossenova und Lucia Sohmen.

Die im Projekt entwickelten Best-Practices umfassten unter anderem:

Warum MediaWiki 1.43 wichtig ist

Mit der Version 1.39 war Semantic Wikibase kompatibel mit der damaligen Longtime Support Version(LTS) von Mediawiki. Diese Unterstützung war aber gemäß des Mediawiki Lifecycle nur bis Ende 2025 gegeben.

MediaWiki 1.43 bringt als aktuelle LTS-Version (Support bis 2028) zahlreiche technische Verbesserungen, Performance-Optimierungen sowie langfristige Wartungsvorteile mit sich. Für viele Wikibase-Installationen ist die Orientierung an den aktuellen MediaWiki-Versionen essenziell, um Sicherheit, Stabilität und Zukunftsfähigkeit zu gewährleisten. Durch Versionskonflikte zwischen verwendeten Bibliotheken in Wikibase und Semantic Mediawiki, konnte SemanticWikibase aber nicht ohne Anpassung in dieser neuen Version eingesetzt werden.

Unsere größte Befürchtung war, dass die aktuellen Versionen grundlegende Änderung vorgenommen hatten, die einen Weiterbetrieb von Semantic Wikibase technisch unsauber bzw. unwirtschaftlich machen würden. Ende 2025 schaffte Open-Science-Lab-Entwickler Lukas Günther die entscheidende Grundlage für das Upgrade, indem er unser Installationstool Wikibase4Research aktualisierte und so mit der Mediawiki Version 1.44 kompatibel machte. Da Semantic Wikibase sich mittels Wikibase4Research automatisiert installieren lässt, war so ein geeignetes Test-Setup geschaffen, um die Entwicklung in Angriff zu nehmen. Letzendlich war es uns so möglich, Semantic Wikibase mit der aktuellen LTS-Version von Mediawiki zu betreiben und das sogar ohne Änderungen am Wikibase- oder SemanticMediawiki-Code vorzunehmen. Sämtliche bisher unterstützten Datentypen sind auch weiterhin funktional, was auch ein Update bestehender Installationen auf die neue Version ermöglicht.

Unterstützte Datentypen in Semantic Wikibase, visualisiert im Semantic Browser von SMW

Ausblick

Die kontinuierliche Synchronisierung von Semantic Wikibase mit dem MediaWiki-Releasezyklus ist ein zentraler Baustein für nachhaltige, semantische Wissensinfrastrukturen. Mit diesem Update schaffen wir die Grundlage für kommende Weiterentwicklungen und eine langfristig stabile Integration in das Wikibase-Ökosystem. Der Einsatz von Semantic Wikibase bedeutet für unsere Forschungsdaten- und Terminologie-Projekte im Open Science Lab:

  • Fokussierung auf eine gemeinsame technologische Basis für alle Projekte
  • Bündelung von Wissen und Ressourcen
  • Zeitersparnis bei der Projektumsetzung durch Best Practices und Synergieeffekten zwischen Projekten
  • Koordinierter Aufbau von Services innerhalb eines bestehenden Software Ökosystems
  • Support der Open-Source und Linked-Open-Data Community durch unsere Entwicklungen

Wir freuen uns auf die weitere Entwicklung und die vielfältigen kommenden Projekte mit Semantic Wikibase.

Relevante Links

#SemanticKompakkt #SemanticMediawiki #LizenzCCBY40INT #Wikibase4Research #OpenScienceLab #SemanticWikibase #Wikibase #WeLoveFreeSoftware #NFDI4Culture #SemanticWeb #linkedOpenData #semanticPublishing

Women in Science: Dr Esther Tobschall

diesen Beitrag auf Deutsch lesen

The blog series “Women in Science” introduces women from the TIB who give insights into their careers and personal experiences in science. Dr Esther Tobschall studied chemistry at the University of Hannover and conducted research for her PhD thesis on NMR, impedance and infrared spectroscopy of nanocrystalline and glassy lithium metaborate (LiBO₂) as part of a solid-state physics project. Today, she is the subject specialist for physics at the TIB, where she is primarily responsible for providing information to physicists. In this interview, she talks about the encouragement to ask questions, her own self-image and the joy of research.

Dr Esther Tobschall // Photo: TIB/C. Bierwagen

What fascinates you about working in science?

What particularly appealed to me about academic work was that I was able to immerse myself in a subject in all its aspects and explore it in depth. When I was working on my PhD thesis on nanocrystalline substances, research on nanocrystals was a relatively new field, and we were able to experiment with which measurement methods were best suited for understanding and characterising the nature and properties of these substances.

I especially enjoyed evaluating and comparing the results from different measurement methods, which is why my colleagues then built me a universal spectrometer as a graduation gift (today, astronomers would call it multi-messenger approach.)

It was also during this time that I discovered my interest in profound literature reviews, researching and evaluating relevant papers, and synthesising the findings. That is why, quite early on during my PhD, I envisaged a career path as subject librarian.

As a woman in science, what would you have liked to have known earlier?

I would have needed more encouragement: the encouragement to realise that I am allowed to ask questions not only regarding the material or literature I am studying, but also to experienced researchers. At the time, I saw my reticence more as a personality trait and did not attribute it to role models. Today, however, I would say that the greater self-confidence of my predominantly male colleagues came from the fact that men have, for generations, naturally had a place in the academic world and communication generally took place amongst men, whilst we few young women in physical chemistry were, in a way, still seen as somewhat exotic. I must emphasise that there was no obvious or covert discrimination; the factor was simply that it was a given.

This assumption is still enshrined today in the German rules for subject heading cataloguing (RSWK): I get frustrated every time I have to assign the subject heading “Physiker” (meaning the masculine form of physicist) to works about male and female physicists. The subject heading “Physikerin” (standing for “female physicist”), on the other hand, is reserved for works that deal explicitly with women in physics, according to the rules. By the way: What about works that deal exclusively with men in physics? Whenever it is reasonably justifiable, I naturally assign both terms!

What advice would you give to girls and young women who are considering a career in science?

It is your inherent right to be part of the scientific community. Never question that, even in difficult circumstances. I am delighted that there are now infinitely more female professors in physics than there were during my active research career, and that they are setting an example through their work and as a role model. You are only truly good at what brings you joy, and if scientific work inspires you, you will – despite any potential adversity – excel and succeed in it. Follow your passion!

A wish for the future of women and girls in science …

I was the first pregnant researcher at our institute; I submitted my doctoral thesis shortly before the birth of our daughter and defended it a few months later. So, I hope that, in future, for female researchers, motherhood will not be associated with so much extra effort and the need for such strong assertiveness as is apparently still the case in academia today, and which can thus become a career killer. It is interesting to note that male researchers in senior positions are often fathers too, whereas, according to my observations, motherhood is still less common among female researchers. The fact that balancing work and family life is still far too often seen as a women’s issue rather than a parents’ issue is certainly a general societal problem, but our publicly funded academic structure in particular has the potential to shift the focus here from an “either-or” to a “both-and”. As I stated when I was asked about my daughter and my responsibilities as a mother in the course of a job interview: “The child has a father too!”

Women in science – a blog series

The blog series “Women in Science” introduces women at TIB who provide insights into their scientific careers, role models and experiences from their everyday working lives. They all share their perspectives and wishes for the future of science and encourage other women to take their place with confidence.

#LizenzCCBY40INT #Physics #subjectSpecialist #WomenAtTIB #WomenInScience

Frauen in der Wissenschaft: Dr. Esther Tobschall

read this article in English

Die Blogreihe „Frauen in der Wissenschaft“ stellt Frauen aus der TIB vor, die Einblicke in ihre Wege und ihre persönlichen Erfahrungen in der Wissenschaft geben. Dr. Esther Tobschall studierte Chemie an der Universität Hannover und forschte für ihre Dissertation zur NMR-, Impedanz- und Infrarot-Spektroskopie an nanokristallinem und glasigem Lithiummetaborat LiBO2 an einem festkörperphysikalischen Thema. Heute ist sie Fachreferentin für Physik an der TIB und ist dort vor allem für die Informationsversorgung von Physiker:innen verantwortlich. Im Interview spricht sie über die Ermutigung, Fragen zu stellen, das eigene Selbstverständnis und die Freude an der Forschung.

Dr. Esther Tobschall // Foto: TIB/C. Bierwagen

Was fasziniert dich an der Arbeit in der Wissenschaft?

Besonders gereizt hat mich an der wissenschaftlichen Arbeit, dass ich mich in ein Thema mit all seinen Aspekten einarbeiten und dabei in die Tiefe gehen durfte. Als ich mich für meine Dissertation mit nanokristallinen Substanzen beschäftigt habe, war die Forschung an Nanokristallen ein relativ neues Gebiet und wir konnten ausprobieren, mit welchen Messmethoden sich Wesen und Eigenschaften dieser Substanzen am besten erfassen und charakterisieren lassen.

Das Auswerten und Vergleichen der Messergebnisse unterschiedlicher Verfahren hat mir besonders viel Freude gemacht, weshalb mir meine Kolleg:innen dann auch ein Universalspektrometer für meinem Doktorhut gebastelt haben (in der Astronomie nennt man das heute Multi-Messenger-Beobachtung).

Auch mein Interesse an umfassender Literaturarbeit, den Recherchen und der Auswertung relevanter Paper sowie das Zusammenführen der Erkenntnisse, habe ich dabei entdeckt. Deshalb habe ich mir schon früh während meiner Promotionszeit den Weg ins Fachreferat an einer wissenschaftlichen Bibliothek als berufliche Perspektive vorgestellt.

Was hättest du als Frau in der Wissenschaft gerne früher gewusst?

Ich hätte mehr Ermutigung gebraucht: Die Ermutigung, dass ich Fragen nicht nur an mein zu untersuchendes Material oder Literatur stellen darf, sondern auch an erfahrene Forschende. Damals habe ich meine Zurückhaltung eher als Persönlichkeitsmerkmal gesehen und sie nicht auf Rollenmodelle zurückgeführt. Heute würde ich doch sagen, dass sich das größere Selbstbewusstsein meiner überwiegend männlichen Kollegen daraus gespeist hat, dass Männer seit Generationen selbstverständlich einen Platz im Wissenschaftsbetrieb hatten und Kommunikation in der Regel unter Männern stattfand, während wir wenigen jungen Frauen in der Physikalischen Chemie doch irgendwie noch Exotinnen waren. Ich muss betonen, dass es keine offene oder verdeckte Diskriminierung gab, der Faktor war schlichtweg die Selbstverständlichkeit.

Dieses Selbstverständnis ist auch heute noch in den Regeln für die Schlagwortkatalogisierung (RSWK) verankert: Ich ärgere mich jedes Mal, wenn ich regelkonform das Schlagwort „Physiker“ für Werke über Physiker und Physikerinnen vergeben muss. Das Schlagwort „Physikerin“ dagegen ist den Werken vorbehalten, die sich explizit mit Frauen in der Physik beschäftigen – was ist eigentlich mit Werken, die sich ausschließlich mit Männern in der Physik befassen? Immer dann, wenn es sich halbwegs vertreten lässt, vergebe ich natürlich beide Begriffe!

Welchen Rat würdest du Mädchen und jungen Frauen geben, die eine wissenschaftliche Laufbahn anstreben?

Es ist euer selbstverständliches Recht, Teil des Wissenschaftsbetriebes zu sein. Stellt das auch bei widrigen Bedingungen nie in Frage. Ich freue mich, dass es inzwischen in der Physik (auch mathematisch gesehen) unendlich mehr Professorinnen gibt, als zu meiner aktiven Zeit in der Forschung und diese mit ihrer Arbeit und ihrem Auftreten zum Vorbild werden. Ihr seid nur wirklich gut in dem, was euch Freude macht und wenn euch wissenschaftliches Arbeiten begeistert, werdet ihr – allen eventuellen Widrigkeiten zum Trotz – darin gut und erfolgreich sein. Folgt eurer Freude!

Ein Wunsch für die Zukunft von Frauen und Mädchen in der Wissenschaft …

Ich war die erste schwangere Forscherin an unserem Institut, habe meine Dissertation kurz vor der Geburt unserer Tochter eingereicht und die Prüfung wenige Monate danach absolviert. Ich wünsche mir also, dass für Wissenschaftlerinnen das Muttersein in Zukunft nicht mit so viel zusätzlichen Anstrengungen und starkem Durchsetzungsvermögen verbunden ist, wie es heute offenbar im Wissenschaftsbetrieb immer noch der Fall ist und damit zum Karrierekiller werden kann.

Interessant ist ja, dass forschende Männer in höheren Positionen häufig auch Väter sind, während bei forschenden Frauen Mutterschaft meinen Beobachtungen nach doch noch seltener ist. Dass die Vereinbarkeit von Beruf und Familie noch viel zu häufig als Thema von Frauen gesehen wird und nicht als Thema von Eltern, ist zwar ein allgemeines gesellschaftliches Problem, aber gerade unsere öffentlich geförderte Wissenschaftsstruktur hat das Potential, hier etwas vom Entweder-oder hin zum Sowohl-als-auch zu ändern. Wie stellte ich in einem Bewerbungsgespräch fest, als ich nach meiner Tochter und meinen Verpflichtungen als Mutter gefragt wurde: „Das Kind hat auch einen Vater!“

Frauen in der Wissenschaft – eine Blogreihe

In der Blogreihe „Frauen in der Wissenschaft“ werden Frauen an der TIB vorgestellt, die Einblicke in ihre wissenschaftlichen Wege, Rollenbilder und ihre Erfahrungen aus dem Arbeitsalltag geben. Sie alle teilen ihre Perspektive und ihre Wünsche für die Zukunft der Wissenschaft und ermutigen andere Frauen, ihren Platz selbstbewusst einzunehmen.

#Fachreferat #FrauenAnDerTIB #FrauenInDerWissenschaft #LizenzCCBY40INT #Physik

Bessere KI-Antworten – auch ohne Hochleistungsrechner

KI-Systeme, die Texte nicht nur generieren, sondern gezielt in Dokumenten recherchieren, sind mittlerweile etablierter Stand der Technik. Einer dieser Ansätze heißt Retrieval-Augmented Generation (RAG): Stellt ein Benutzer eine Frage, sucht das System relevante Informationen in einer Wissensbasis – zum Beispiel in einem Wiki – und nutzt diese als Grundlage, um relevante Inhalte bzw. Quellen aufzulisten oder mittels KI Antworten daraus zu generieren.

Das Problem: Damit ein solches System gut funktioniert, müssen viele Stellschrauben richtig eingestellt werden. Diese sogenannte Hyperparameter-Optimierung ist normalerweise entweder zeitaufwändig oder rechenintensiv und in jedem Fall technisch anspruchsvoll. Unsere aktuelle Untersuchung zeigt jedoch: Eine automatisierte Optimierung ist möglich – sogar auf einem normalen Laptop.

Ausgangslage

Grundlage unserer Untersuchung im Open Science Lab war die Weiterentwicklung unseres RAG-Moduls für Wikibase4Research. Mit dem zuvor bestehenden System war es bereits sehr einfach möglich, eine Mediawiki Installation zu erhalten, deren Inhalte KI-gestützt via RAG durchsuchbar sind. Egal ob es nun um Artikelseiten in einem einfachen Mediawiki, strukturierte Wissensdaten in einer Wikibase oder eine Kombination aus beidem wie zum Beispiel Semantic Mediawiki oder Semantic Wikibase geht.

Eine Einführung in die grundlegende Funktionsweise von RAG und Wikibase4Research liefert das folgende Video:

Um eine hohe Qualität der KI-basierten Suchergebnisse und Antworten zu erhalten, ist es aber nötig, das System entsprechend der verwendeten Daten zu konfigurieren. Für diese Einstellungen gibt es keine Standardfälle, es gehört in das Arbeitsfeld eines Data Scientist die Systemparameter zu testen und zu verbessern. In diesem Prozess wird daher klassisch ein hohes Maß an Erfahrung und Fachwissen benötigt, um optimale Ergebnisse zu erhalten.

Die Alternative ist der nun in Wikibase4Research integrierte AutoRAG Ansatz, der die Parameter vollautomatisch optimiert. Dieser Prozess wird im Farchjargon „Hyperparameter Tuning“ oder auch „Hyperparameter Optimierung“ genannt.

Anforderungen

Die Rahmenbedingungen für ein Hyperparameter Tuning können sehr unterschiedlich sein. In unserem Fall ergeben sich die Anforderungen vor allem aus der Nutzergruppe von Wikibase4Research.

Forscher/Innen

Im Forschungskontext haben wir es mit fächerspezifischen Daten zu tun. Die beteiligten Wissenschaftler sind Experten in ihrer jeweiligen Fachdomäne. Expertise im Bereich spezieller Data-Science-Anwendungen ist in den Projektteams meist nicht vorhanden. Dies ist durchaus sinnvoll, denn das Projektteam ist somit auf die im Projekt zu bearbeitenden Forschungsfragen spezialisiert.

Daten

Für die Optimierung wird ein Test-Datensatz benötigt, der mögliche Fragen (Suchanfragen) mit den optimalen Quellen in den Daten verknüpft. Dieser Datensatz wird mit den Suchergebnissen des Systems verglichen, um die Qualität der Systemeinstellung bewerten zu können (Idealdaten). Solche Testdaten liegen in den überwiegenden Fällen nicht vor.

Endnutzer/Innen

Wer nutzt die Daten letztendlich und welche Art von Anfragen werden gestellt? Diese Frage ist entscheidend bei der Optimierung. Werden die Endnutzer spezifische Fakten aus den Daten abfragen wie zum Beispiel Jahreszahlen bestimmter Ereignisse oder eher Zusammenfassungen ganzer Absätze oder Artikel erwarten? Zu welchen Themen werden voraussichtlich Fragen gestellt? Erwarte ich eher Fragen zum Inhalt der Daten oder Fragen auf der Metaebene wie zum Beispiel zur Anzahl von Quellen, der Struktur und Länge von Texten, des Schreibstils oder zur Medienart? Werden Suchanfragen von Wissenschaftlern im Fachjargon gestellt oder eher in Umgangssprache formuliert? Die frühzeitige Definition grundlegender Personas für die zu erwartende Nutzergruppe hilft nicht nur bei der Optimierung von RAG, sondern ist auch ein wichtiger Schritt bei der Erstellung von Design und Benutzeroberflächen in der Präsentation der Forschungsergebnisse.

Infrastruktur

Hohe Rechenkapazitäten, Zugang zu GPU-Processing und Budget für industrielle KI-Services ist in vielen Projekten nicht vorhanden. Wikibase4Research bietet die Option, externe Schnittstellen wie Huggingface, OpenAI oder die SAIA-Umgebung der GWDG zur Ausführung von KI-Modellen zu nutzen. Die dort bestehenden Limits für kostenlose Nutzung reichen aber meist nicht aus, um die Vielzahl an Parameter-Konfigurationen zu testen, die zur Optimierung eines RAG-Systems notwendig ist. Ideal wäre also, die Ausführung lokal auf allgemein verfügbarer Hardware durchführen zu können, was auch unter dem Aspekt der ressourcenschonenden Nutzung von KI ein erstrebenswertes Ziel ist.

Es ergibt sich für unseren Ansatz daher folgender Anforderungskatalog:

  • Anpassung auf die verwendeten Daten
  • vollautomatische Optimierung
  • keine technischen Vorkenntnisse nötig
  • Test-Datensatz wird generiert
  • User-Persona-Profile berücksichtigen
  • möglichst effizient, mit geringem Ressourcenbedarf

Methodik

Daten

Als Datengrundlage dienten jeweils 50 zufällige Artikel aus drei MediaWiki-basierten Wissenssammlungen:

Um die Qualität der Suche zu bewerten, wurden automatisch Frage-Kontext-Antwort-Tripel erzeugt. Zum Einsatz kam dafür das mehrsprachige Sprachmodell IBM Granite 4 350M Nano, das speziell für Umgebungen mit geringer Rechenleistung wie zum Beispiel für On-Device-Anwendungsfälle entwickelt wurde.

LLM-Prompt

Um hinsichtlich der erwarteten Nutzung realistische Fragen zu generieren, wurde der an das Modell gelieferte Prompt („Erstelle Fragen aus dem Seiteninhalt“) um speziell angepasste Rollenbeschreibungen (Personas) ergänzt, die per Konfigurationsdatei individualisiert werden können. Eine solche Persona-Definition könnte zum Beispiel lauten: „You are a scientist who wants to learn about historic manorhouses in Europe“.

Parameter

In einem RAG-Prozess werden die zu durchsuchenden Daten in einer speziellen Datenbank indiziert, um später schnell und effizient relevante Inhalte zu finden.

Information Extraction und Indizierung von Daten in einem RAG-Prozess

Die meisten von uns verwendeten Parameter optimieren diesen Prozess der Informations Extraktion (IE). Dabei wird bestimmt, in welcher Form die Daten gespeichert werden und ob diese ggf. vor dem Speichern um Metadaten wie Schlagworte, Titel oder Zusammenfassungen ergänzt werden. Für die Vektorisierung verwendeten wir das Modell Qwen3-embedding:0.6B. Die mittels AutoRAG optimierten Parameter sind im Folgenden aufgelistet:

  • Chunk_Size: Wie groß sind die Informationsabschnitte, die später zugreifbar sein sollen?
  • Chunk_Overlap: Wie stark überlappen sich die Informationsabschnitte?
  • Extractors: Welche Datenanreicherungen sollen erfolgen (zum Beispiel Zusammenfassung erstellen, Fragen generieren)?
  • Top_K: Wieviele Chunks werden als Suchergebnis geliefert?

Sind die Daten eingelesen und wird eine Suchanfrage gestellt, wird das System nach relevanten Informationsabschnitten durchsucht. Dieser Prozess wird „Information Retrieval“ genannt. Man kann es mit den Ergebnissen einer Google-Suche vergleichen, bei der die relevantesten Ergebnisse nicht zwangsläufig an erster Stelle der Liste stehen.

Information Retrieval in einem RAG Prozess

Information Retrieval bedeutet, zur Frage des Nutzers relevante Informationen zu finden. In diesem Prozessschritt optimieren wir den Parameter „Top_K“, der definiert, wie viele der Suchergebnisse im weiteren Prozess berücksichtigt werden. Ist Top_K zu klein, sind wichtige Quellen eventuell nicht enthalten. Ist Top_K zu groß, verarbeitet man eventuell eine große Menge wenig relevanter Inhalte.

Optimierungsverfahren

Statt alle möglichen Kombinationen auszuprobieren (was sehr lange dauern würde), kommt ein Suchalgorithmus zum Einsatz, der die verschiedenen Parameter stufenweise verbessert. Dieses als Greedy („gierig) benannte Verfahren optimiert zunächst nur einen einzigen Parameter, dann den nächsten usw. Wir verzichten damit auf optimale Lösungen, erreichen aber hinreichend gute Ergebnisse mit akzeptablem Aufwand.

Als Bewertungsmaß für die Optimierung dient dabei der sogenannte Mean Reciprocal Rank (MRR) – ein Maß dafür, an welcher Position relevante Inhalte in der Trefferliste platziert sind. Ein entscheidender Vorteil:
Die Bewertung erfolgt vollständig ohne KI-Antwortgenerierung. Es wird also nur getestet, wie gut das System relevante Inhalte findet, nicht wie gut eine KI daraus später Antworten generiert. Dadurch wird erheblich Rechenzeit gespart.

Antwort Generierung in einem RAG Prozess. Diese Phase wurde in der Optimierung NICHT berücksichtigt

Technische Umsetzung

Die Implementierung erfolgte vollständig im MediaWiki-Umfeld mit:

  • Wikibase4Research
  • einer Docker-basierten Python-API
  • dem RAG-Framework LlamaIndex
  • lokaler Modellbereitstellung über Ollama

Die Experimente liefen auf einem handelsüblichen Laptop aus dem Jahr 2022 (Dell Latitude 5421, Intel Core i7-11850H mit 8 Kernen, 16 GB RAM) – ohne GPU-Beschleunigung.

Ergebnisse

Trotz der bewusst schlanken Hardware-Ausstattung konnte die Optimierung meist bereits innerhalb einer Stunde abgeschlossen werden. Dabei wurde bei allen Datensätzen eine starke Verbesserungen der Abfrageergebnisse erzielt.

Für unser Qualitästmaß, den Mean Reciprocal Rank (MRR), ergab sich eine Steigerung von durchschnittlich 12 bis 25 Prozent gegenüber den voreingestellten Parametern. Das bedeutet, in den Ergebnissen der Suchanfrage waren mehr relevante Quellen aufgeführt und relevante Quellen standen in der Ergebnisliste an höherer Stelle als zuvor. In einzelnen Datensätzen ergaben sich sogar Verbesserungen von bis zu 50 Prozent. Dabei ließen sich vergleichbare Ergebnisse auch mit Artikeln erreichen, die nicht Teil der Optimierungsschleife waren (Cross-Validation).

Warum ist das relevant?

Für wissenschaftliche Infrastrukturen wie digitale Bibliotheken, Fachrepositorien oder Forschungsdatenplattformen ist es entscheidend, KI-Systeme effizient und ressourcenschonend betreiben zu können. Die Ergebnisse zeigen: Sinnvolle RAG-Optimierung ist auch ohne Rechenzentrum machbar.

Das senkt technische Hürden, reduziert Kosten und macht den Einsatz moderner KI-Technologien auch in kleineren Projekten realistisch.

Ausblick

Die für die Suche verwendeten Embedding-Vector-Modelle haben einen erheblichen Einfluss auf die Ergebnisse (vgl. Orbach et al. (2025)) und zwar sowohl auf die Rechenzeit als auch auf die Ergebnisqualität. Dabei zeigen Modelle nicht auf allen Datensätzen die gleichen Ergebnisse.

Es ist auch nur begrenzt möglich, die Optimierung mit extrem kleinen oder schnellen Embedding-Modellen auszuführen und die optimierten Parameter dann zusammen mit einem anderen, leistungsfähigen Modell im Live-Betrieb einzusetzen. Sind die eingesetzten Embedding-Modelle nicht angepasst genug an die verwendete Wissensdomäne, liefert auch die Optimierung nur suboptimale Ergebnisse.

Genau an diesem Punkt wird unsere Arbeit im Open Science Lab in der nächsten Zeit ansetzen. Gemeinsam mit den Fachinformationsdiensten FID Material Science, FID Move, FID Pyhsik und FID Philosophie evaluieren wir die Möglichkeit einer stärkeren Vernetzung von NFDI und FIDs mit dem Ziel, die einzelnen Wissendomänen mit fachspezifischen Embedding-Modellen zu versorgen. Zielsetzung ist es, damit den Zugang zu dieser Technologie noch weiter zu vereinfachen sowie die Qualität der Ergebnisse von KI-Anwendungen im Forschungs- und Bibliotheksumfeld gezielt zu erhöhen.

Prof. Dr. Ina Blümel, Open Science Lab // Foto: TIB/C. Bierwagen

„AutoRAG ist für uns ein wichtiger Innovationsschritt: Es macht RAG in offenen Wissensräumen wie Wikibase messbar, wiederholbar und mit überschaubaren Ressourcen betreibbar. Für Projekte wie NFDI4Culture und weitere Vorhaben im Open Science Lab bedeutet das spürbar bessere, nachvollziehbare KI-gestützte Suche über heterogene Bestände – ohne dass tiefes Spezial-Know-how aufgebaut werden muss. Nächster Schritt ist der Ausbau fachspezifischer Embeddings, kuratierter Testsets und transparenter Workflows, damit die Qualität und Nachnutzbarkeit langfristig steigt.“

Relevante Links

#SemanticMediawiki #FIDMaterialsScience #LizenzCCBY40INT #Wikibase #FIDPhysik #Projekte #RAG #KI #NFDI4Culture #FID #FIDMove

Wasser – immer schon ein Thema

Der 22. März ist seit 1993 der Weltwassertag und wurde 1992 von der UN-Generalversammlung beschlossen. Seit 2003 wird der Weltwassertag von der UN-Wasser organisiert und wird unter ein bestimmtes Motto gestellt. Zu diesem Anlass haben wir uns in der Retrodigitalisierung Werke zum Thema Wasser herausgesucht.

Wasser ist für unser Leben unverzichtbar und sehr wertvoll. Die besonderen Eigenschaften von Wasser spielen auch in den Bereichen der Technik, Physik, Chemie oder Biologie, die auch zu den Sammelgebieten der TIB gehören, eine große Rolle. Egal ob im flüssigen Zustand als Wasser, gefroren als Eis oder als gasförmigen Wasserdampf: Wasser zeigt sich in allen Lebensbereichen und in der Wissenschaft. Das Thema Wasser findet sich auch im Altbestand der TIB und zeigt, dass Wasser schon in der Vergangenheit ein wichtiges Thema war.

Als technische Bibliothek haben wir zum Beispiel einige Werke im Bereich des Bauwesens. Wassermühlen waren besonders beliebt, aber auch andere Bauwerke, die im Zusammenhang mit Wasser stehen. Wir haben eine kleine Auswahl an digitalisierten Werken zusammengestellt:

  • Theorie und Bau der Wasser-Räder (1858)
  • Der Wasser-Mahlmühlen-Bau, oder Anleitung zur richtigen Construction sämmtlicher beim Mühlenbau vorkommenden hölzernen und eisernen Räderwerke und Gerinne, mit besonderer Beziehung auf die von Wasserkraft zu betreibenden Mahlmühlen (Atlas) (1856)
  • Der Wasser-Mahlmühlenbau, oder Anleitung zur richtigen Konstruktion sämmtlicher beim Mühlenbau vorkommenden Räder und Gerinne, mit besonderer Beziehung auf die von Wasserkraft zu betreibenden Mahlmühlen (Atlas) (1865)
  • Der Wasser-Mahlmühlen-Bau, oder Anleitung zur richtigen Construction sämmtlicher beim Mühlenbau vorkommenden hölzernen und eisernen Räderwerke und Gerinne, mit besonderer Beziehung auf die von Wasserkraft zu betreibenden Mahlmühlen (Hauptband) (1856)
  • Vollständiges, theoretisch-praktisches Handbuch der Mühlenbaukunst, oder gründliche und allgemein-verständliche Anleitung zur Construction sämmtlicher neu anzulegender und zur richtigen Beurtheilung bereits vorhandener, durch Wasser, Wind, Dampf und lebendige Kräfte zu betreibenden Mühlewerke, welche durch Mahlen, Schneiden, Stampfen und Hämmern im praktischen Leben von Wichtigkeit sind (1. Band + 2. Band) (1840)

 

  • Vollständiges, theoretisch-praktisches Handbuch der Mühlenbaukunst, oder gründliche und allgemein-verständliche Anleitung zur Construction sämmtlicher neu anzulegender und zur richtigen Beurtheilung bereits vorhandener, durch Wasser, Wind, Dampf und lebendige Kräfte zu betreibender Mühlenwerke, welche durch Mahlen, Schneiden, Stampfen und Hämmern im praktischen Leben von Wichtigkeit sind (1.Band, 2. Band, Atlas) (1832)
  • Worinnen enthalten: die Weise, wie der Grund der Schleußen in einem schlechten Erdboden zu legen ist. Beyspiel dessen an der ehemaligen Schleuße im Bassin zu Dünkirchen. Beschreibung mittelmäßiger Schleußen, das Wasser zum Vortheil eines See-Hafens zu dirigiren. Bau der hölzernen Schleußenböden. Vom rechten Gebrauch der Spundpfähle. Von Anlage der Roste zu den Schleußenböden. Von dem dazu gehörigen Eisenwert. (Zweyter Theil, Dritte Ausgabe der Version) (1767)
  • Enthaltend: eine umständliche Beschreibung der Maschinen zu Vertiefung der Seehäven. Von Gründung im Meere, durch eingesenkte große Steine: durch Kästen, welche mit trockenem Mauerwerke angefüllet und ins Meer gesenket werden: durch über einander gelegte prismatische Kisten. Von denen für Seehäven gehörigen Gebäuden, insonderheit von den Schiffs-Docken. Wie man sich der fließenden Wasser bey Belagerungen und im Felde nützlich bedienen kann. (Zweyter Theil, Neunte Ausgabe der Version) (1770)
  • Beyträge zur Wasser-, Brücken- und Straßenbaukunde oder wissenschaftliche Darstellung der in den neuesten Zeiten ausgeführten oder in der Anlage begriffenen Bauwerke und Beschreibungen der vorzüglichsten Maschinen (1.–6. Heft) (1808–1812)

 

#Bauwesen #Digitalisierung #LizenzCCBY40INT #Retrodigitalisierung #Technik

Weltwassertag 2026

Quelle: Pixabay

Als Fachreferentin für Umwelttechnologien habe ich hier im TIB-Blog schon auf einige Aktionstage wie den Welttag der Umwelt oder auch den Global Recycling Day hingewiesen. Heute möchte ich die Aufmerksamkeit auf den Weltwassertag lenken.

Dieser Aktionstag findet jedes Jahr am 22. März statt und wird von UN-Wasser, einer Unterorganisation der Vereinten Nationen organisiert. Der Zugang zu sauberem Wasser und Sanitäranlagen ist das sechste Nachhaltigkeitsziel der 2030-Agenda der Vereinten Nationen.

Für uns in Deutschland ist es selbstverständlich, dass jederzeit frisches Wasser aus dem Hahn kommt. Dieses Glück haben jedoch nicht alle Menschen: Fast drei Viertel der Weltbevölkerung lebt in Ländern mit einer unsicheren oder kritischen Trinkwasserversorgung. Darüber hinaus haben laut UNICEF mehr als 350 Millionen Menschen keinen Zugang zu sanitären Anlagen[1]. Doch Fäkalien in der Umwelt können dazu führen, dass Wasserquellen verunreinigt werden, die Menschen für ihren täglichen Bedarf nutzen. Auf diese Weise können sich Krankheiten wie Cholera ausbreiten. Um auf diese prekäre Situation aufmerksam zu machen wurde 1993 der Weltwassertag ins Leben gerufen, der jedes Jahr unter einem anderen Motto steht. Wasser und Gender ist das Motto für 2026.

Warum gerade dieser Schwerpunkt?

In sieben von zehn Haushalten ohne Wasseranschluss sind Frauen und Mädchen für das Wasserholen zuständig. Das ist das Ergebnis eines Berichts, der 2023 von UNICEF und WHO vorgelegt wurde. Damit macht dieses Motto nicht nur auf das sechste sondern auch das fünfte Nachhaltigkeitsziel der Vereinen Nationen (Geschlechtergerechtigkeit und Selbstbestimmung für alle Frauen und Mädchen) aufmerksam: Wenn Mädchen weite Wege (manchmal mehrere Stunden zu Fuß) gehen müssen, um Wasser zu holen, können sie in dieser Zeit nicht lernen, spielen oder sich einfach mit Freunden treffen. Welche Veränderungen mit dem Zugang zu sanitären Anlagen erzielt werden können, hat UNICEF unter dem Titel „Welttoilettentag: Wasser und Hygiene für ein besseres Leben“ im November 2025 zusammengetragen.

Weitere Aktionen am Weltwassertag

Neben den UN nutzen auch viele andere Organisation den Weltwassertag, um die Aufmerksamkeit auf das Thema Wasser zu lenken.

Alle zwei Jahre wird in Deutschland am Weltwassertag die Flusslandschaft des Jahres gekürt. 2026/27 fiel die Wahl auf die Murg. Sie fließt vom Nordschwarzwald in die Oberrheinische Tiefebene und mündet nach 80,2 Kilometern nordwestlich von Rastatt in den Rhein. „Im Zuge der Klimaanpassung gewinnen Renaturierungsmaßnahmen in Flusslandschaften zunehmend an Bedeutung, weil durch sie Extremwetterereignisse wie Starkregen und Dürren besser abgefedert werden können. Die Murg bietet hier hervorragende Beispiele.“[2]

Seit 2011 wird vom Umweltbundesamt der Gewässertyp des Jahres gekürt. In diesem Jahr ist es das Kleingewässer, ein wichtiger „Lebensraum für viele Pflanzen- und Tierarten, darunter zahlreiche gefährdete Amphibien. Zudem erfüllen sie wichtige Funktionen in der Landschaft, beispielsweise als Trittsteine im Biotopverbund oder als Wasser- und Stoffspeicher.“[3]

Die Wasserdekade läuft seit 2018 bis 2028 und soll die Bemühungen zur Bewältigung wasserbezogener Herausforderungen, wie den Zugang zu sauberem Wasser und sanitären Einrichtungen oder das Risiko von Dürren und Überschwemmungen, beschleunigen.

Der Hinweis auf die jährlich in Stockholm stattfindende internationale Weltwasserwoche, bei der sich Hersteller, Industrie und Politik zum fachlichen Austausch und zur Vernetzung treffen, darf an dieser Stelle nicht fehlen. Auch hier gibt es ein jährlich wechselndes Thema. Dieses Jahr findet die Weltwasserwoche vom 23. bis 27. August 2026 unter dem Motto „Water for People and Progress” statt.[4]

Und was können Sie tun?

Sie haben diesen Beitrag entdeckt und damit den Blick auf die essenziellste Ressource allen Lebens gelenkt – Wasser. Das ist genau das, was mit dem Weltwassertag bezweckt wird – Aufmerksamkeit erzeugen und Überdenken des eigenen Handels. Jedes Jahr gibt die UN zu diesem Zweck auch den Weltwasserreport heraus. Die Ausgabe 2026 ist bereits seit einigen Tagen online und in den Sprachversionen Englisch, Französisch und Italienisch hier zu finden. Die deutsche Übersetzung kann im TIB-Portal abgerufen werden. Dort finden Sie auch viele weitere Informationen rund um das Thema Trinkwasser und Sanitärtechnik.

Neuerscheinungen zur Umwelttechnik finden Sie im Facheinstieg Umwelttechnik.

Gerne weise ich auch auf das AV-Portal der TIB hin. Dort finden Sie viele passende Filme zum Thema, wie z.B.  „Hat euer Wasser eine Seele?“ – ein Beitrag des Extremschwimmers Ernst Bromeis, der es sich zur Lebensaufgabe gemacht hat, Menschen für das Thema Wasser zu sensibilisieren.

Vielleicht finden Sie auf diese Weise auch noch ein paar Ideen, was Sie ganz persönlich zum Weltwassertag beitragen können. Viel Spaß und Erfolg bei der Recherche!

Quellen

[1] https://www.unicef.de/informieren/aktuelles/blog/-/welt-toiletten-tag/274976

[2] Joachim Nibbe, Mitglied des Bundesvorstands der NaturFreunde Deutschlands, https://www.naturfreunde.de/die-murg-ist-flusslandschaft-der-jahre-202627

[3] https://www.umweltbundesamt.de/themen/wasser/gewaessertyp-des-jahres/gewaessertyp-des-jahres-2026-kleingewaesser#eigenschaften

[4] https://siwi.org/latest/world-water-day-2026-turning-commitments-into-progress/

#LizenzCCBY40INT #Weltwassertag

Erinnerungskultur zum Mitmachen: eine digitale Landkarte zum Gestapoterror in Niedersachsen

Die Verbrechen der Gestapo sichtbar machen und gleichzeitig Bürger:innen aktiv in die Erinnerungskultur einbinden – geht das? Das TIB-Projekt „Gestapo.Terror.Orte“ zeigt, wie digitale Werkzeuge, offene Daten und Citizen Science neue Wege der historischen Aufarbeitung eröffnen.

Was ist „Gestapo.Terror.Orte“?

Gestapo.Terror.Orte“ ist eine interaktive Landkarte, die Orte des Gestapoterrors in Niedersachsen und darüber hinaus digital zugänglich macht. Das Projekt verbindet Digital History, Digital Mapping und Open Science: Es nutzt frei verfügbare Daten aus Wikidata und Wikimedia Commons, um Wissen über die Verbrechen der Gestapo, ihre Standorte und die Erinnerung daran zu sammeln, zu vernetzen und für alle sichtbar zu machen.

Ziel des Projekts:

  • Orte der Gestapo in Niedersachsen (1933–1945) identifizieren und dokumentieren
  • Daten für Forschung, Bildung und Öffentlichkeit frei zugänglich machen
  • Bürger:innen aktiv in die Erforschung und Erinnerung einbinden

Wie funktioniert die interaktive Landkarte?

Die interaktive Karte bildet das Herzstück des Projekts. Sie zeigt:

  • Dienstsitze und Infrastruktur der Gestapo
  • Haftstätten und andere Orte des Terrors
  • Geschädigte und Täter:innen
  • Fallbeispiele, die die Arbeitsweise der Gestapo verdeutlichen

Die Besonderheit: Die Karte kann kontinuierlich durch Citizen Science – also die Mitarbeit von Bürger:innen – erweitert werden. Jede:r kann Daten ergänzen, neue Orte eintragen oder bestehende Einträge verbessern.

Citizen Science: Geschichte gemeinsam erforschen

„Gestapo.Terror.Orte“ lebt von der Mitarbeit vieler. Im Rahmen des Projekts fanden 16 Werkstätten statt, in denen Interessierte lernten, wie man historische Daten in Wikidata erfasst. Das Ergebnis:

  • 252 Orte des Gestapoterrors wurden bisher dokumentiert. Außerdem 56 Datensätze zu Täter:innen, mit denen wir einen Beitrag leisten zur Täter:innenforschung, sowie mehr 1.000 Datensätze von Verfolgten, an die auf diese Weise erinnert wird.
  • Für Freiwillige, die auch nach Projektende weitere Daten ergänzen möchten, steht eine Reihe von Materialien online bereit:
    • Wikidata-Basics: Einführung in die freie Wissensdatenbank
    • Schritt-für-Schritt-Anleitungen: Wie trage ich neue Daten ein?
    • Datenmodelle: Wie werden Orte, Täter:innen, Geschädigte und Ereignisse erfasst?

Die Landkarte ist nicht nur ein Forschungsinstrument, sondern auch ein Bildungsangebot:

  • Thematische Stadtführungen: Touren zu Gestapo-Orten wie zum Beispiel in Hannover, Göttingen und Osnabrück zeigen, wie die Karte auch für Stadtführungen genutzt werden kann.
  • Schulen und Gedenkstätten: Die Karte eignet sich für Projekte zur historischen Aufarbeitung und politischen Bildung.
  • Forschung: Durch Linked Open Data können die gesammelten Daten für weitere Analysen und Projekte genutzt werden.

Warum ist das Projekt wichtig?

„Gestapo.Terror.Orte“ verbindet Wissenschaft, digitale Tools und gesellschaftliches Engagement. Es zeigt, wie Erinnerungskultur heute aussehen kann:

  • Partizipativ: Jede:r kann mitmachen und Wissen einbringen.
  • Transparenz: Alle Daten sind frei zugänglich und nachnutzbar.
  • Nachhaltig: Die Karte wächst mit jeder neuen Information – und bleibt so ein lebendiges Archiv.

Fazit: Das Projekt beweist, dass digitale Erinnerungskultur nicht nur möglich, sondern auch notwendig ist – um die Verbrechen der Vergangenheit sichtbar zu machen und für die Zukunft zu lernen.

Selbst mitmachen?

Alle Informationen und Materialien findest du auf der Projektwebsite. Dort kannst du direkt loslegen und die Landkarte mit deinen Erkenntnissen ergänzen!

Nach Abschluss der Förderung wird „Gestapo.Terror.Orte“ durch die Stiftung niedersächsischer Gedenkstätten betreut. Dort werden auch weitere Werkstätten zur Einführung in die Arbeit mit der Karte sowie zur Erfassung weiterer Daten angeboten.

Quellen

Groh-Trautmann, Lisa: Wikidata-Plattformen als Tools für neue Formen forschender Erinnerungsarbeit. B.I.T Online 27 (2024) Nr. 2. https://www.b-i-t-online.de/heft/2024-02-fachbeitrag-groh-trautmann.pdf

Blümel, Ina, Fahrenkrog, Gabriele, Heller, Lambert und Groh-Trautmann, Lisa (2026). Digitale Erinnerungskultur: „Gestapo.Terror.Orte“. Ti-Magazin (Technologie-Informationen), „ti“ 3/2025: Transfer in die Praxis. https://doi.org/10.60479/JH9S-7514

Deutschlandfunk Campus & Karriere über Gestapo.Terror.Orte vom 9. Juni 2025: https://on.soundcloud.com/DWOhQXoAdQNrVvj6fd

Gestapo.Terror.Orte auf der Citizen-Science-Plattform mit:forschen! Gemeinsam Wissen schaffen: https://www.mitforschen.org/projekt/gestapoterrororte-niedersachsen-1933-1945

#CitizenScience #digitaleErinnerungskultur #LizenzCCBY40INT #OpenScience #OpenScienceLab #Partizipation #Projekt

Erster FDM-Kurs für Betreuende von Qualifizierungsarbeiten an der HsH

Das Joint Lab Future Libraries & Research Data an der Schnittstelle von TIB und der Hochschule Hannover (HsH) kann einen neuen Meilenstein verzeichnen: Der Basiskurs im Forschungsdatenmanagement (FDM), den die Mitarbeiterinnen des Labs mit dem Data Steward der HsH, Sebastian Lehmann, zusammen vorbereitet hatten, fand Ende Januar das erste Mal statt und war ein voller Erfolg.

Der vierstündige Präsenzworkshop richtet sich gezielt an Lehrende, die Studierende und Promovierende bei ihren Qualifizierungsarbeiten betreuen, und vermittelt praxisnahe Tipps, um bereits Studierenden den Umgang mit Forschungsdaten näherzubringen. Durch Input und interaktive Übungen im Wechsel sowie Raum für kleinere Diskussionen wurde ein direkter Bezug zur täglichen Betreuungspraxis hergestellt. Details zur Konzeption und Entstehung dieses Formats können in unserem Blogbeitrag „Gute Datenpraxis weitergeben – ein Basiskurs entsteht“ nachgelesen werden. Der erste Workshop fand am 29. Januar 2026 am Expo Plaza der Hochschule Hannover statt und wurde von zwölf Teilnehmer:innen aus Fakultät 3 und dem Institut Data|H der HsH besucht.

Kursmaterial als Open Educational Resource veröffentlicht

Das Kursmaterial wurde veröffentlicht und steht interessierten Personen als Open Educational Resource (OER) zur  Verfügung. Es wurde in dem niedersächsischen Repositorium GRO.data publiziert und ist auch über twillo und Zenodo abrufbar.

Das Material umfasst neben dem kommentiertem Folienmaterial in zwei Formaten auch umfangreiches Begleitmaterial. Das Kurshandbuch bietet Lehrenden eine Orientierung zu den Folien und zeigt auf, welche Lernziele je Abschnitt verfolgt werden. Bei der Konzeption des Kurses wurde für die Formulierung der Lernziele auf die Lernzielmatrix zum Themenbereich Forschungsdatenmanagement zurückgegriffen, an deren dritten Version die beiden Mitarbeiterinnen des Joint Labs beteiligt waren (siehe Blogbeitrag). Zudem wird im Handbuch auf weiterführende, kommentierte Literaturempfehlungen verwiesen. Neben dem Handbuch stehen alle Abbildungen, die in den Kursfolien genutzt werden, mit jeweiligen Lizenzierungsinformationen zum Download bereit.

Eine Miro-Board-Vorlage für die Übungen des Kurses sowie ergänzendes Material zum Ausdrucken werden ebenfalls zur Verfügung gestellt, sodass die Übungen einfach in eigene Formate eingebaut werden können. Abgerundet wird die Sammlung durch ergänzende hilfreiche Dokumente mit jeweiligen Lizenzierungsinformationen: Dateibenennungskonventionen, Creative-Commons-Lizenzen, Forschungsdaten in Abschlussarbeiten, Team-Documentation-Sheet, 5S-Comic, erweiterte Version der Lernzielmatrix zum Forschungsdatenmanagement mit markierten, im Kurs verfolgten und weiteren neu formulierten Lernzielen.

Feedback der Teilnehmer:innen

Die Rückmeldungen der Teilnehmer:innen nach Kursende unterstreichen, dass der Kurs wertvolle Impulse setzte und neue Inspirationen für die Lehre und Betreuung von Abschlussarbeiten bot. Besonders positiv bewerteten die Teilnehmer:innen die praxisnahen Handlungsempfehlungen sowie die Tool- und Webseiten-Tipps, die sich auch über die Lehre hinaus für die eigene Forschungsarbeit als hilfreich erweisen.

Das Feedback wird in die Überarbeitung für eine geplante zweite Durchführung des Kurses im Sommer 2026 einfließen. So wird die Kursdauer beispielsweise ausgeweitet: von vier Stunden mit kleineren Pausen hin zu einem Format, das sechs Stunden mit einer gemeinsamen Mittagspause vorsieht und dadurch mehr Raum für den wichtigen Erfahrungsaustausch untereinander bietet.

Entwicklung eines FDM-OER-Angebots von Studierenden für Studierende

Nachdem durch den Basiskurs ein Angebot für die Zielgruppe der Betreuenden geschaffen wurde, rückt in einem nächsten Schritt nun der wissenschaftliche Nachwuchs in den Fokus. Durch die Stärkung von FDM-Kompetenzen bereits im Studium wird das Fundament für nachhaltiges Datenmanagement und eine offene Wissenschaftskultur gelegt.

Basierend auf dem Basiskurs für Betreuer:innen entwickeln Studierende des Bachelorstudiengangs Informationsmanagement der Hochschule Hannover im Rahmen ihres Semesterprojekts zukunftsorientierte Lehr- und Lernangebote zum FDM. Unter der fachlichen Begleitung durch das Team des Joint Labs unter der Leitung von Prof. Dr. Ina Blümel arbeiten die Studierenden an zwei zentralen Bausteinen, die eine Etablierung von FDM an der Hochschule weiter voranbringen:

  • a) Selbstlernkurs für Studierende
    Studierende entwickeln einen modular aufgebauten Selbstlernkurs zum FDM, der Lernen in Eigenregie fördert.
  • b) Seminarplanung und Zusatzmaterial für Lehrende
    Parallel dazu erstellen Studierende ein flexibles Seminarpaket, das Lehrende in ihre Lehrveranstaltungen integrieren können.

Die Ergebnisse des Semesterprojekts werden unter anderem auf der BiblioCon 2026 in Berlin durch die Studierenden vorgestellt.

Kontakt

Joint Lab Future Libraries & Research Data

Dr. Nina Düvel, Hochschule Hannover: [email protected]

Franziska Altemeier, TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften und Universitätsbibliothek: [email protected]

Prof. Dr. Ina Blümel, TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften und Universitätsbibliothek sowie Hochschule Hannover: [email protected]

Joint Lab Future Libraries & Research Data

#FDM #Forschungsdatenmanagement #HochschuleHannover #JointLabFutureLibrariesAndResearchData #LizenzCCBY40INT #OER #Schulung