Bessere KI-Antworten – auch ohne Hochleistungsrechner

KI-Systeme, die Texte nicht nur generieren, sondern gezielt in Dokumenten recherchieren, sind mittlerweile etablierter Stand der Technik. Einer dieser Ansätze heißt Retrieval-Augmented Generation (RAG): Stellt ein Benutzer eine Frage, sucht das System relevante Informationen in einer Wissensbasis – zum Beispiel in einem Wiki – und nutzt diese als Grundlage um relevante Inhalte bzw. Quellen aufzulisten oder mittels KI daraus Antworten zu generieren.

Das Problem: Damit ein solches System gut funktioniert, müssen viele Stellschrauben richtig eingestellt werden. Diese sogenannte Hyperparameter-Optimierung ist normalerweise entweder zeitaufwendig oder rechenintensiv und in jedem Fall technisch anspruchsvoll. Unsere aktuelle Untersuchung zeigt jedoch:
Eine automatisierte Optimierung ist möglich – sogar auf einem normalen Laptop.

Ausgangslage

Grundlage unserer Untersuchung am Open Science Lab war die Weiterentwicklung unseres RAG Moduls für Wikibase4Research. Mit dem zuvor bestehenden System war es bereits sehr einfach möglich, eine Mediawiki Installation zu erhalten, deren Inhalte KI-gestützt via RAG durchsuchbar sind. Egal ob es nun um Artikelseiten in einem einfachen Mediawiki, strukturierte Wissensdaten in einer Wikibase oder eine Kombination aus beidem wie z.B. Semantic Mediawiki oder Semantic Wikibase geht.

Eine Einführung in die grundlegende Funktionsweise von RAG und Wikibase4Research liefert das folgende Video:

Um eine hohe Qualität der KI basierten Suchergebnisse und Antworten zu erhalten ist es aber nötig, das System entsprechend der verwendeten Daten zu konfigurieren. Für diese Einstellungen gibt es keine Standardfälle, es gehört in das Arbeitsfeld eines Data Scientist die Systemparameter zu testen und zu verbessern. In diesem Prozess wird daher klassisch ein hohes Maß an Erfahrung und Fachwissen benötigt um optimale Ergebnisse zu erhalten.

Die Alternative ist der nun in Wikibase4Research integrierte AutoRAG Ansatz, der die Parameter vollautomatisch optimiert. Dieser Prozess wird im Farchjargon „Hyperparameter Tuning“  oder auch „Hyperparameter Optimierung“ genannt.

Anforderungen

Die Rahmenbedingungen für ein Hyperparameter Tuning können sehr unterschiedlich sein. In unserem Fall ergeben sich die Anforderungen vor allem aus der Nutzergruppe von Wikibase4Research.

Forscher/Innen

Im Forschungskontext haben wir es mit fächerspezifischen Daten zu tun. Die beteiligten Wissenschaftler sind Experten in Ihrer jeweiligen Fachdomäne. Expertise im Bereich spezieller Data Science Anwendungen ist in den Projektteams meist nicht vorhanden. Dies ist durchaus sinnvoll, denn das Projektteam ist somit auf die im Projekt zu bearbeitenden Forschungsfragen spezialisiert.

Daten

Für die Optimierung wird ein Test-Datensatz benötigt, der mögliche Fragen (Suchanfragen) mit den optimalen Quellen in den Daten verknüpft. Dieser Datensatz wird mit den Suchergebnissen des Systems verglichen, um die Qualität der Systemeinstellung bewerten zu können (Idealdaten). Solche Testdaten liegen in den überwiegenden Fällen nicht vor.

Endnutzer/Innen

Wer nutzt die Daten letztendlich und welche Art von Anfragen werden gestellt? Diese Frage ist entscheidend bei der Optimierung. Werden die Endnutzer spezifische Fakten aus den Daten abfragen, wie z.B. Jahreszahlen bestimmter Ereignisse, oder eher Zusammenfassungen ganzer Absätze oder Artikel erwarten? Zu welchen Themen werden voraussichtlich Fragen gestellt? Erwarte ich eher Fragen zum Inhalt der Daten, oder Fragen auf der Meta Ebene wie z.B. zur Anzahl von Quellen, der Struktur und Länge von Texten, des Schreibstils oder zur Medienart? Werden Suchanfragen von Wissenschaftlern im Fachjargon gestellt oder eher in Umgangssprache formuliert? Die frühzeitige Definition grundlegender Personas für die zu erwartende Nutzergruppe hilft nicht nur bei der Optimierung von RAG sondern ist auch ein wichtiger Schritt bei der Erstellung von Design und Benutzeroberflächen in der Präsentation der Forschungsergebnisse.

Infrastruktur

Hohe Rechenkapazitäten, Zugang zu GPU-Processing und Budget für industrielle KI-Services ist in vielen Projekten nicht vorhanden. Wikibase4Research bietet die Option, externe Schnittstellen wie Huggingface, OpenAI oder die SAIA Umgebung der GWDG zur Ausführung von KI Modellen zu nutzen. Die dort bestehenden Limits für kostenlose Nutzung reichen aber meist nicht aus, um die Vielzahl an Parameter Konfigurationen zu testen die zur Optimierung eines RAG Systems notwendig ist. Ideal wäre also, die Ausführung lokal auf allgemein verfügbarer Hardware durchführen zu können. Auch unter dem Aspekt der Ressourcen schonenden Nutzung von KI ein erstrebenswertes Ziel.

Es ergibt sich für unseren Ansatz daher folgender Anforderungskatalog:

  • Anpassung auf die verwendeten Daten
  • Vollautomatische Optimierung
  • Keine technischen Vorkenntnisse nötig
  • Test Datensatz wird generiert
  • User-Persona Profile berücksichtigen
  • Möglichst effizient, mit geringem Ressourcenbedarf

Methodik

Daten

Als Datengrundlage dienten jeweils 50 zufällige Artikel aus drei MediaWiki-basierte Wissenssammlungen:

Um die Qualität der Suche zu bewerten, wurden automatisch Frage–Kontext-Antwort Tripel erzeugt. Zum Einsatz kam dafür das mehrsprachige Sprachmodell IBM Granite 4 350M Nano, das speziell für Umgebungen mit geringer Rechenleistung wie z.B. für On-Device Anwendungsfälle entwickelt wurde.

LLM Prompt

Um hinsichtlich der erwarteten Nutzung realistische Fragen zu generieren, wurde der an das Modell gelieferte Prompt („Erstelle Fragen aus dem Seiteninhalt“) um speziell angepasste Rollenbeschreibungen (Personas) ergänzt, die per Konfigurationsdatei individualisiert werden können. Eine solche Persona Definition könnte z.B. lauten: „You are a scientist who wants to learn about historic manorhouses in Europe“.

Parameter

In einem RAG Prozess werden die zu durchsuchenden Daten in einer speziellen Datenbank indiziert um später schnell und effizient relevante Inhalte zu finden.

Information Extraction und Indizierung von Daten in einem RAG Prozess

Die meisten von uns verwendeten Parameter optimieren diesen Prozess der Informations Extraktion (IE). Dabei wird bestimmt, in welcher Form die Daten gespeichert werden und ob diese ggf. vor dem Speichern um Metadaten wie Schlagworte, Titel oder Zusammenfassungen ergänzt werden. Für die Vektorisierung verwendeten wir das Modell Qwen3-embedding:0.6B. Die mittels AutoRAG optimierten Parameter sind im Folgenden aufgelistet:

  • Chunk_Size: Wie groß sind die Informationsabschnitte, die später zugreifbar sein sollen
  • Chunk_Overlap: Wie stark sich überlappen die die Informationsabschnitte
  • Extractors: Welche Datenanreicherungen sollen erfolgen (z.B. Zusammenfassung erstellen, Fragen generieren)
  • Top_K: Wieviele Chunks werden als Suchergebnis geliefert

Sind die Daten eingelesen und wird eine Suchanfrage gestellt, wird das System nach relevanten Informationsabschnitten durchsucht. Dieser Prozess wird „Information Retrieval“ genannt. Man kann es mit den Ergebnissen einer Google Suche vergleichen, bei der die relevantesten Ergebnisse nicht zwangsläufig an erster Stelle der Liste stehen.

Information Retrieval in einem RAG Prozess

Information Retrieval bedeutet, zur Frage des Nutzers relevante Informationen zu finden. In diesem Prozessschritt optimieren wir den Parameter „Top_K“ der definiert, wie viele der Suchergebnisse im weiteren Prozess berücksichtigt werden. Ist Top_K zu klein, sind wichtige Quellen evtl. nicht enthalten. Ist Top_K zu groß, verarbeitet man evtl. eine große Menge wenig relevanter Inhalte.

Optimierungsverfahren

Statt alle möglichen Kombinationen auszuprobieren (was sehr lange dauern würde), kommt ein Suchalgorithmus zum Einsatz, der die verschiedenen Parameter stufenweise verbessert. Dieses als Greedy („gierig“) benannte Verfahren optimiert zunächst nur einen einzigen Parameter, dann den nächsten usw. Wir verzichten damit auf optimale Lösungen, erreichen aber hinreichend gute Ergebnisse mit akzeptablem Aufwand.

Als Bewertungsmaß für die Optimierung dient dabei der sogenannte Mean Reciprocal Rank (MRR) – ein Maß dafür, an welcher Position relevante Inhalte in der Trefferliste platziert sind. Ein entscheidender Vorteil:
Die Bewertung erfolgt vollständig ohne KI-Antwortgenerierung. Es wird also nur getestet, wie gut das System relevante Inhalte findet, nicht wie gut eine KI daraus später Antworten generiert. Dadurch wird erheblich Rechenzeit gespart.

Antwort Generierung in einem RAG Prozess. Diese Phase wurde in der Optimierung NICHT berücksichtigt

Technische Umsetzung

Die Implementierung erfolgte vollständig im MediaWiki-Umfeld mit:

  • Wikibase4Research
  • einer Docker-basierten Python-API
  • dem RAG-Framework LlamaIndex
  • lokaler Modellbereitstellung über Ollama

Die Experimente liefen auf einem handelsüblichen Laptop aus dem Jahr 2022 (Dell Latitude 5421, Intel Core i7-11850H mit 8 Kernen, 16 GB RAM) – ohne GPU-Beschleunigung.

Ergebnisse

Trotz der bewusst schlanken Hardware-Ausstattung konnte die Optimierung meist bereits innerhalb einer Stunde abgeschlossen werden. Dabei wurde bei allen Datensätzen eine starke Verbesserungen der Abfrageergebnisse erzielt.

Für unser Qualitästmaß, den Mean Reciprocal Rank (MRR) ergab sich eine Steigerung von durchschnittlich 12–25 % gegenüber den voreingestellten Parametern. Das bedeutet, in den Ergebnissen der Suchanfrage waren mehr relevante Quellen aufgeführt und relevante Quellen standen in der Ergebnisliste an höherer Stelle als zuvor. In einzelnen Datensätzen ergaben sich sogar Verbesserungen von bis zu 50%. Dabei ließen sich vergleichbare Ergebnisse auch mit Artikeln erreichen, die nicht Teil der Optimierungsschleife waren (Cross-Validation).

Warum ist das relevant?

Für wissenschaftliche Infrastrukturen wie digitale Bibliotheken, Fachrepositorien oder Forschungsdatenplattformen ist es entscheidend, KI-Systeme effizient und ressourcenschonend betreiben zu können. Die Ergebnisse zeigen: Sinnvolle RAG-Optimierung ist auch ohne Rechenzentrum machbar.

Das senkt technische Hürden, reduziert Kosten und macht den Einsatz moderner KI-Technologien auch in kleineren Projekten realistisch.

Ausblick

Die für die Suche verwendeten Embedding-Vector Modelle haben einen erheblichen Einfluss auf die Ergebnisse, vgl. Orbach et al. (2025), und zwar sowohl auf die Rechenzeit, als auch auf die Ergebnisqualität. Dabei zeigen Modelle nicht auf allen Datensätzen die gleichen Ergebnisse.

Es ist auch nur begrenzt möglich, die Optimierung mit extrem kleinen oder schnellen Embedding Modellen auszuführen und die optimierten Parameter dann zusammen mit einem anderen, leistungsfähigen Modell im Live Betrieb einzusetzen. Sind die eingesetzten Embedding Modelle nicht angepasst genug an die verwendete Wissensdomäne, liefert auch die Optimierung nur suboptimale Ergebnisse.

Genau an diesem Punkt wird unsere Arbeit am Open Science Lab in der nächsten Zeit ansetzen. Gemeinsam mit den Fachinformationsdiensten FID Material Science, FID Move, FID Pyhsik und FID Philosophie evaluieren wir die Möglichkeit einer stärkeren Vernetzung von NFDI und FIDs mit dem Ziel, die einzelnen Wissendomänen mit fachspezifischen Embedding-Modellen zu versorgen. Zielsetzung ist es, damit den Zugang zu dieser Technologie noch weiter zu vereinfachen sowie die Qualität der Ergebnisse von KI-Anwendungen im Forschungs- und Bibliotheksumfeld gezielt zu erhöhen.

Prof. Dr. Ina Blümel Open Science Lab

„AutoRAG ist für uns ein wichtiger Innovationsschritt: Es macht RAG in offenen Wissensräumen wie Wikibase messbar, wiederholbar und mit überschaubaren Ressourcen betreibbar. Für Projekte wie NFDI4Culture und weitere Vorhaben im Open Science Lab bedeutet das spürbar bessere, nachvollziehbare KI-gestützte Suche über heterogene Bestände – ohne dass tiefes Spezial-Know-How aufgebaut werden muss. Nächster Schritt ist der Ausbau fachspezifischer Embeddings, kuratierter Testsets und transparenter Workflows, damit die Qualität und Nachnutzbarkeit langfristig steigt.“

Relevante Links

#SemanticMediawiki #FIDMaterialsScience #Wikibase #FIDPhysik #Projekte #RAG #KI #NFDI4Culture #FID #FIDMove
Die Humanities@NFDI veranstalten diese Woche Donnerstag wieder ihre gemeinsame offene FDM-Sprechstunde. Kolleg:innen aus Text+, NFDI4Culture, NFDI4Memory und NFDI4Objects bieten Online-Beratung für Studierende, Forschende oder Mitarbeitende zu allen Fragen rund um das Forschungsdatenmanagement. --> Einfach ohne Anmeldung vorbeischauen: https://events.gwdg.de/category/320/ <-- #NFDI #NFDI4Objects #FDM #NFDIrocks #NFDI4Memory #NFDI4Culture #Text+ #Humanities #DigitalHumanities #DH #academia
Die Humanities@NFDI veranstalten diese Woche Dienstag wieder ihre gemeinsame offene FDM-Sprechstunde. Kolleg:innen aus Text+, NFDI4Culture, NFDI4Memory und NFDI4Objects bieten Online-Beratung für Studierende, Forschende oder Mitarbeitende zu allen Fragen rund um das Forschungsdatenmanagement. --> Einfach ohne Anmeldung vorbeischauen: https://events.gwdg.de/category/320/ <-- #NFDI #NFDI4Objects #FDM #NFDIrocks #NFDI4Memory #NFDI4Culture #Text+ #Humanities #DigitalHumanities #DH #academia

Für die #SocialMedia-Präsenz von #NFDI4Culture sucht das Deutsche Dokumentationszentrum für Kunstgeschichte - Bildarchiv #FotoMarburg Unterstützung: befristet bis 31.12.2028 bietet es dazu eine Teilzeitstelle (30%, E13 TV-H). Bewerbungsfrist: 22.03.2026

👉 https://stellenangebote.uni-marburg.de/jobposting/e34d4a60afa778c34b83ed115659de4c5b73d9880

#Stellenausschreibung #Stellenangebot #NFDIrocks ^kb

Content Creator/Social Media Manager*in

💬 Neue monatliche FDM-Sprechstunde!

Ab März 2026 bieten wir gemeinsam mit @nfdi4culture , @NFDI4Memory und @Textplus eine offene Online-Sprechstunde zum #Forschungsdatenmanagement an. 🎊

📅 17.03.2026
⏰ 9–10 Uhr
💻 Zoom, Teilnahme ohne Anmeldung

👩‍🎓👨‍🔬 Für #Studierende, #Forschende und #Mitarbeitende aus #Forschung und #Sammlungsinstitutionen.

🔗 Weitere Informationen: https://www.nfdi.de/humanitiesnfdi/

#NFDI #NFDI4Objects #FDM #NFDIrocks #NFDI4Memory #NFDI4Culture #Text+ #Humanities #DigitalHumanities #DH

🏺 Die von einer UAG der AG #Minimaldatensatz im Deutschen Museumsbund veröffentlichte Publikation ‘FAIRe #Vokabulare und #Normdaten für #Museen und #Sammlungen

✨ist jetzt auch auf Englisch bei Zenodo verfügbar✨

🔗 https://zenodo.org/records/18458730

#DMB #NFDI4Objects #NFDI4Culture #Terminologien #SODa @SODa @nfdi4culture @vzg_gbv @klassikstiftung #InstitutfürMuseumsforschung @kulturSPK #DeutscherMuseumsbund @ublmu @HumboldtUni

FAIR Vocabularies and Authority Files for Museums and Collections

Controlled vocabularies and authority data are central to the reusability of data used to describe objects in museums and collections. The Minimum Record Recommendation for Museums and Collections already contains key guidance on terminology use in core elements of object documentation. This report presents a series of relevant vocabularies for collection documentation, including those suitable for specific documentation focuses and disciplines. Each one is assessed according to the criteria of the internationally recognised FAIR Principles, and a brief description is provided of the respective content focuses and the technical implementation status of the web offerings. This allows museum and collection professionals, as well as those who reuse datasets, to make an informed assessment of the sustainability of the described vocabularies in the context of linked publishing and effective research data management. This paper was prepared by a sub-working group of the Minimum Record Working Group of the Fachgruppe Dokumentation of the German Museum Association (DMB). The group comprises staff and representatives from the German Digital Library, the Humboldt- Universität Berlin (Coordination Centre for Scientific University Collections in Germany), the Institute for Museum Research, the Klassik Stiftung Weimar, the Ludwig-Maximilians-Universität Munich, Philipps-Universität Marburg (Deutsches Dokumentationszentrum für Kunstgeschichte - Bildarchiv Foto Marburg), and the Verbundzentrale des Gemeinsamen Bibliotheksverbunds Göttingen (VZG). It was developed as part of the NFDI consortia NFDI4Objects (https://www.nfdi4objects.net/; DFG project number 501836407) and NFDI4Culture (https://nfdi4culture.de/; DFG project number 441958017), as well as the joint project 'SODa – Collections, Objects, Data Competencies' (https://sammlungen.io/). We would like to thank the German Research Foundation (DFG) and the Federal Ministry of Research, Technology and Space (BMFTR) for their financial support. The German version of the report is available at https://doi.org/10.5281/zenodo.17950403.

Zenodo

New blog post!
Moritz Schepp and @ThWuebbena about an effective approach to sustainable research: “‘The last one leaves the light on’. Static service as a key to sustainable data provision”
ConedaKOR, an open-source database system for cultural artefacts, now includes a built-in static mode that enables “graceful degradation”—transforming a dynamic database into lightweight, long-term static website.

https://dhlab.hypotheses.org/8265

#DHLab_IEG #DigitalHumanities #NFDI4Culture

🚀 Neu: Minimaldatensatz-Sprechstunde der AG Minimaldatensatz & LIDO-Servicestelle ( @nfdi4culture) !
📅 Erste Session am 18. Feb 2026, 14–15 Uhr
🎯 Für Museumsfachleute & Forschende
📝 Anmeldung: Formular, Bitte LIDO-Servicestelle wählen
🔗 https://nfdi4culture.de/de/helpdesk.html

#NFDI #NFDI4Objects #NFDI4Culture #LIDO #Minimaldatensatz #Museen #Sammlungen #DeutscherMuseumsbund

📣 Einladung zum 8. Workshop Retrodigitalisierung
🗓 19.–20. März 2026
📍 Staatsbibliothek zu Berlin (Unter den Linden)

Unter dem Motto „Digitalisierung für die Ewigkeit? – Datenqualität in der Praxis“ geht es um optimale Retrodigitalisate, Formate für Images, Metadaten & Volltexte sowie den Umgang mit Fehlern und Fallstricken.

👉 Anmeldung bis 5. März 2026
#Retrodigitalisierung #Digitalisierung #Langzeitarchivierung #Bibliotheken #NFDI4Culture

https://blog.sbb.berlin/termin/8-ws-retrodigitalisierung/

8. Workshop Retrodigitalisierung: Digitalisierung für die Ewigkeit? – Datenqualität in der Praxis - SBB aktuell

Event Details This event is running from 19 März 2026 until 20 März 2026. It is next occurring on 19.03.2026 10:00 Categories: Kulturprogramm Tags: Digitalisierung, Workshop Upcoming Dates: 19.03.2026 10:00 – 19:0020.03.2026 10:00 – 19:00

SBB aktuell

Die #NFDI4Culture - Tasche taugt auch wunderbar, um noch schnell allerletzte Geschenke zur Post zu befördern! 😀 💪

#NFDIeverywhere #NFDIrocks