Wikibase for Digital Humanities, documentation by the DARIAH-EU DHwiki working group:

"These pages explore the significant role of Wikibase, the software behind Wikidata, as a powerful and versatile tool for creating structured knowledge bases following the principles of Linked Open Data (LOD). "

https://dhwiki.wikibase.cloud/wiki/Documentation

#wikibase #wikidata #mediawiki @wikimediaDE

Normdaten & Personendaten: Anreicherung mit Wikibase
📅24.04.2026
📍Online

Nach einem Vortrag von Ruth Bruchertseifer zur Arbeit im Projekt „Aschkenas in neuen Lebenswelten“, sind Sie gefragt!
Mit den Expert*innen Dr. Katrin Moeller und Dr. Olaf Simons können Sie Ihre eigenen Personendaten in einer Wikibase anreichern.
Sichern Sie sich die letzten PlÀtze!

👉Alle Infos unter: https://hermes-hub.de/aktuelles/events/byodl-2026-04-24.html

#HERMES #Wikibase #Enriching #BringYourOwnData #TrierUniversity

Upgrade abgeschlossen: Semantic Wikibase kompatibel mit MediaWiki 1.43

Wir freuen uns, bekanntzugeben, dass Semantic Wikibase erfolgreich auf KompatibilitĂ€t mit MediaWiki 1.43 aktualisiert wurde. Mit diesem Schritt stellen wir sicher, dass Semantic Wikibase weiterhin mit der aktuellen Longterm-Support-Version von MediaWiki kompatibel bleibt und als stabile Grundlage fĂŒr semantisch angereicherte Wissensinfrastrukturen dient.

Über Semantic Wikibase

Viele Forschungsprojekte setzen das Mediawiki-Framework als Werkzeug fĂŒr Forschungsdatenmanagement ein. Mit ĂŒber 1.500 Erweiterungen lĂ€sst sich dieses an die individuellen Anforderungen anpassen:

  • als reines Wiki mit Text und Medien, organisiert in Artikelseiten nach dem Vorbild von Wikipedia,
  • als strukturierte Wissens-Datenbank zur Linked-Open-Data Implementierung von Wissensgraphen und Terminologien mittels Wikibase,
  • als semantischer Wissensspeicher zur Datenvisualisierung mittels Semantic Mediawiki.

Semantic Mediawiki vs. Wikibase

Insbesondere Wikibase und Semantic Mediawiki werden hÀufig im Forschungsumfeld verwendet. Beide Erweiterungen haben unterschiedliche StÀrken und SchwÀchen:

Vergleich von Wikibase and SMW (Grafik by Bernhard Krabina)

Semantic Mediawiki und Wikibase

Die Entwicklung von Semantic Wikibase (SWB) ermöglichte es erstmals, beide Erweiterungen gemeinsam auf einem System zu verbinden und so die Vorteile beider Systeme gemeinsam zu nutzen. WĂ€hrend strukturelle Wissensdaten in Wikibase gespeichert und verwaltet werden, sorgt die SWB-Erweiterung dafĂŒr, dass diese auch in Semantic Mediawiki fĂŒr die Visualisierung in Wiki-Artikeln verfĂŒgbar sind. SWB dient also quasi als BrĂŒcke zwischen den beiden Erweiterungen, wobei der Datenfluss nur von Wikibase nach Semantic Mediawiki (nicht umgekehrt) erfolgt. Dies dient dazu, Datenkonflikte zu vermeiden.

Semantic Wikibase wurde im September 2020 in einer ersten Version vom Unternehmen ProfessionalWiki veröffentlicht. Dieser erste Prototyp war nur mit der Ă€lteren Mediawiki Version 1.35 kompatibel, aber unterstĂŒtzte bereits grundlegende Datentypen. Im Open Science Lab sahen wir in der Entwicklung einen Baustein, der das Potenzial hat, im Mediawiki-Umfeld eine bedeutende LĂŒcke zu schließen: Die Kombination aus strukturierter, föderierbarer Datenverwaltung und DatenprĂ€sentation. Unser Ziel war es, die Erweiterung zu testen, bei Bedarf weiterzuentwickeln und kĂŒnftig als unser Content-Management-System zur UnterstĂŒtzung von Forschungsprojekten zu verwenden.

Case Studies

Mitte 2024 wurde mit dem Projekt PhiWiki ein erster Prototyp fĂŒr Mediawiki 1.39 in Zusammenarbeit mit der Akademie der Wissenschaften und der Literatur Mainz sowie der AG Digitale Philosophie erfolgreich getestet. Es folgte mit Semantic Glossar ein weiteres Projekt zur kollaborativen Entwicklung von Terminologien mittels Semantic Wikibase.

Ende 2024 konnten wir im Rahmen des Projekts HerrenhĂ€user des Ostseeraums Semantic Wikibase dann in einem umfangreichen Projekt einem herausfordernden Lasttest unterziehen. Mit ĂŒber 14.000 Wikibase-Objekten, die auf mehr als 300 Artikelseiten dynamisch eingebettet als Karten, Zeitstrahlen, Tabellen und Suchformulare verwendet werden, konnten wir die bestehenden SchwĂ€chen von Semantic Wikibase identifizieren und beheben. Dazu gehörte unter anderem die UnterstĂŒtzung des vollen Wikibase-Datenmodells mittels Qualifiers, eine erste grundlegende UnterstĂŒtzung des Extended Datetime Formats (EDTF) sowie die Einbettung von 3D-Visualisierungen aus Semantic Kompakkt. Entscheidend war hierfĂŒr die interdisziplinĂ€re Zusammenarbeit zwischen dem Enwicklerteam und den LOD- und Wikibase-Datenmodell-Expertinnen Lozana Rossenova und Lucia Sohmen.

Die im Projekt entwickelten Best-Practices umfassten unter anderem:

  • Nutzung individueller Formulare fĂŒr Suchfilter und Dateneingabe
  • VerknĂŒpfung von Wikibase-Items mit Mediawiki-Kategorien
  • Verlinkung von Artikelseiten mit Wikibase-Items
  • Nutzung des vollen Wikibase-Datenmodells in SMW Inline Queries
  • Performance von Datenvisualisierungen trotz hoher Anzahl an Wikibase-Objekten
  • Best Practices zur Informationsmodellierung im Generic Wikibase Model for Cultural Data

Warum MediaWiki 1.43 wichtig ist

Mit der Version 1.39 war Semantic Wikibase kompatibel mit der damaligen Longtime Support Version(LTS) von Mediawiki. Diese UnterstĂŒtzung war aber gemĂ€ĂŸ des Mediawiki Lifecycle nur bis Ende 2025 gegeben.

MediaWiki 1.43 bringt als aktuelle LTS-Version (Support bis 2028) zahlreiche technische Verbesserungen, Performance-Optimierungen sowie langfristige Wartungsvorteile mit sich. FĂŒr viele Wikibase-Installationen ist die Orientierung an den aktuellen MediaWiki-Versionen essenziell, um Sicherheit, StabilitĂ€t und ZukunftsfĂ€higkeit zu gewĂ€hrleisten. Durch Versionskonflikte zwischen verwendeten Bibliotheken in Wikibase und Semantic Mediawiki, konnte SemanticWikibase aber nicht ohne Anpassung in dieser neuen Version eingesetzt werden.

Unsere grĂ¶ĂŸte BefĂŒrchtung war, dass die aktuellen Versionen grundlegende Änderung vorgenommen hatten, die einen Weiterbetrieb von Semantic Wikibase technisch unsauber bzw. unwirtschaftlich machen wĂŒrden. Ende 2025 schaffte Open-Science-Lab-Entwickler Lukas GĂŒnther die entscheidende Grundlage fĂŒr das Upgrade, indem er unser Installationstool Wikibase4Research aktualisierte und so mit der Mediawiki Version 1.44 kompatibel machte. Da Semantic Wikibase sich mittels Wikibase4Research automatisiert installieren lĂ€sst, war so ein geeignetes Test-Setup geschaffen, um die Entwicklung in Angriff zu nehmen. Letzendlich war es uns so möglich, Semantic Wikibase mit der aktuellen LTS-Version von Mediawiki zu betreiben und das sogar ohne Änderungen am Wikibase- oder SemanticMediawiki-Code vorzunehmen. SĂ€mtliche bisher unterstĂŒtzten Datentypen sind auch weiterhin funktional, was auch ein Update bestehender Installationen auf die neue Version ermöglicht.

UnterstĂŒtzte Datentypen in Semantic Wikibase, visualisiert im Semantic Browser von SMW

Ausblick

Die kontinuierliche Synchronisierung von Semantic Wikibase mit dem MediaWiki-Releasezyklus ist ein zentraler Baustein fĂŒr nachhaltige, semantische Wissensinfrastrukturen. Mit diesem Update schaffen wir die Grundlage fĂŒr kommende Weiterentwicklungen und eine langfristig stabile Integration in das Wikibase-Ökosystem. Der Einsatz von Semantic Wikibase bedeutet fĂŒr unsere Forschungsdaten- und Terminologie-Projekte im Open Science Lab:

  • Fokussierung auf eine gemeinsame technologische Basis fĂŒr alle Projekte
  • BĂŒndelung von Wissen und Ressourcen
  • Zeitersparnis bei der Projektumsetzung durch Best Practices und Synergieeffekten zwischen Projekten
  • Koordinierter Aufbau von Services innerhalb eines bestehenden Software Ökosystems
  • Support der Open-Source und Linked-Open-Data Community durch unsere Entwicklungen

Wir freuen uns auf die weitere Entwicklung und die vielfÀltigen kommenden Projekte mit Semantic Wikibase.

Relevante Links

#SemanticKompakkt #SemanticMediawiki #LizenzCCBY40INT #Wikibase4Research #OpenScienceLab #SemanticWikibase #Wikibase #WeLoveFreeSoftware #NFDI4Culture #SemanticWeb #linkedOpenData #semanticPublishing

Bessere KI-Antworten – auch ohne Hochleistungsrechner

KI-Systeme, die Texte nicht nur generieren, sondern gezielt in Dokumenten recherchieren, sind mittlerweile etablierter Stand der Technik. Einer dieser AnsĂ€tze heißt Retrieval-Augmented Generation (RAG): Stellt ein Benutzer eine Frage, sucht das System relevante Informationen in einer Wissensbasis – zum Beispiel in einem Wiki – und nutzt diese als Grundlage, um relevante Inhalte bzw. Quellen aufzulisten oder mittels KI Antworten daraus zu generieren.

Das Problem: Damit ein solches System gut funktioniert, mĂŒssen viele Stellschrauben richtig eingestellt werden. Diese sogenannte Hyperparameter-Optimierung ist normalerweise entweder zeitaufwĂ€ndig oder rechenintensiv und in jedem Fall technisch anspruchsvoll. Unsere aktuelle Untersuchung zeigt jedoch: Eine automatisierte Optimierung ist möglich – sogar auf einem normalen Laptop.

Ausgangslage

Grundlage unserer Untersuchung im Open Science Lab war die Weiterentwicklung unseres RAG-Moduls fĂŒr Wikibase4Research. Mit dem zuvor bestehenden System war es bereits sehr einfach möglich, eine Mediawiki Installation zu erhalten, deren Inhalte KI-gestĂŒtzt via RAG durchsuchbar sind. Egal ob es nun um Artikelseiten in einem einfachen Mediawiki, strukturierte Wissensdaten in einer Wikibase oder eine Kombination aus beidem wie zum Beispiel Semantic Mediawiki oder Semantic Wikibase geht.

Eine EinfĂŒhrung in die grundlegende Funktionsweise von RAG und Wikibase4Research liefert das folgende Video:

Um eine hohe QualitĂ€t der KI-basierten Suchergebnisse und Antworten zu erhalten, ist es aber nötig, das System entsprechend der verwendeten Daten zu konfigurieren. FĂŒr diese Einstellungen gibt es keine StandardfĂ€lle, es gehört in das Arbeitsfeld eines Data Scientist die Systemparameter zu testen und zu verbessern. In diesem Prozess wird daher klassisch ein hohes Maß an Erfahrung und Fachwissen benötigt, um optimale Ergebnisse zu erhalten.

Die Alternative ist der nun in Wikibase4Research integrierte AutoRAG Ansatz, der die Parameter vollautomatisch optimiert. Dieser Prozess wird im Farchjargon „Hyperparameter Tuning“ oder auch „Hyperparameter Optimierung“ genannt.

Anforderungen

Die Rahmenbedingungen fĂŒr ein Hyperparameter Tuning können sehr unterschiedlich sein. In unserem Fall ergeben sich die Anforderungen vor allem aus der Nutzergruppe von Wikibase4Research.

Forscher/Innen

Im Forschungskontext haben wir es mit fÀcherspezifischen Daten zu tun. Die beteiligten Wissenschaftler sind Experten in ihrer jeweiligen FachdomÀne. Expertise im Bereich spezieller Data-Science-Anwendungen ist in den Projektteams meist nicht vorhanden. Dies ist durchaus sinnvoll, denn das Projektteam ist somit auf die im Projekt zu bearbeitenden Forschungsfragen spezialisiert.

Daten

FĂŒr die Optimierung wird ein Test-Datensatz benötigt, der mögliche Fragen (Suchanfragen) mit den optimalen Quellen in den Daten verknĂŒpft. Dieser Datensatz wird mit den Suchergebnissen des Systems verglichen, um die QualitĂ€t der Systemeinstellung bewerten zu können (Idealdaten). Solche Testdaten liegen in den ĂŒberwiegenden FĂ€llen nicht vor.

Endnutzer/Innen

Wer nutzt die Daten letztendlich und welche Art von Anfragen werden gestellt? Diese Frage ist entscheidend bei der Optimierung. Werden die Endnutzer spezifische Fakten aus den Daten abfragen wie zum Beispiel Jahreszahlen bestimmter Ereignisse oder eher Zusammenfassungen ganzer AbsĂ€tze oder Artikel erwarten? Zu welchen Themen werden voraussichtlich Fragen gestellt? Erwarte ich eher Fragen zum Inhalt der Daten oder Fragen auf der Metaebene wie zum Beispiel zur Anzahl von Quellen, der Struktur und LĂ€nge von Texten, des Schreibstils oder zur Medienart? Werden Suchanfragen von Wissenschaftlern im Fachjargon gestellt oder eher in Umgangssprache formuliert? Die frĂŒhzeitige Definition grundlegender Personas fĂŒr die zu erwartende Nutzergruppe hilft nicht nur bei der Optimierung von RAG, sondern ist auch ein wichtiger Schritt bei der Erstellung von Design und BenutzeroberflĂ€chen in der PrĂ€sentation der Forschungsergebnisse.

Infrastruktur

Hohe RechenkapazitĂ€ten, Zugang zu GPU-Processing und Budget fĂŒr industrielle KI-Services ist in vielen Projekten nicht vorhanden. Wikibase4Research bietet die Option, externe Schnittstellen wie Huggingface, OpenAI oder die SAIA-Umgebung der GWDG zur AusfĂŒhrung von KI-Modellen zu nutzen. Die dort bestehenden Limits fĂŒr kostenlose Nutzung reichen aber meist nicht aus, um die Vielzahl an Parameter-Konfigurationen zu testen, die zur Optimierung eines RAG-Systems notwendig ist. Ideal wĂ€re also, die AusfĂŒhrung lokal auf allgemein verfĂŒgbarer Hardware durchfĂŒhren zu können, was auch unter dem Aspekt der ressourcenschonenden Nutzung von KI ein erstrebenswertes Ziel ist.

Es ergibt sich fĂŒr unseren Ansatz daher folgender Anforderungskatalog:

  • Anpassung auf die verwendeten Daten
  • vollautomatische Optimierung
  • keine technischen Vorkenntnisse nötig
  • Test-Datensatz wird generiert
  • User-Persona-Profile berĂŒcksichtigen
  • möglichst effizient, mit geringem Ressourcenbedarf

Methodik

Daten

Als Datengrundlage dienten jeweils 50 zufÀllige Artikel aus drei MediaWiki-basierten Wissenssammlungen:

Um die QualitĂ€t der Suche zu bewerten, wurden automatisch Frage-Kontext-Antwort-Tripel erzeugt. Zum Einsatz kam dafĂŒr das mehrsprachige Sprachmodell IBM Granite 4 350M Nano, das speziell fĂŒr Umgebungen mit geringer Rechenleistung wie zum Beispiel fĂŒr On-Device-AnwendungsfĂ€lle entwickelt wurde.

LLM-Prompt

Um hinsichtlich der erwarteten Nutzung realistische Fragen zu generieren, wurde der an das Modell gelieferte Prompt („Erstelle Fragen aus dem Seiteninhalt“) um speziell angepasste Rollenbeschreibungen (Personas) ergĂ€nzt, die per Konfigurationsdatei individualisiert werden können. Eine solche Persona-Definition könnte zum Beispiel lauten: „You are a scientist who wants to learn about historic manorhouses in Europe“.

Parameter

In einem RAG-Prozess werden die zu durchsuchenden Daten in einer speziellen Datenbank indiziert, um spÀter schnell und effizient relevante Inhalte zu finden.

Information Extraction und Indizierung von Daten in einem RAG-Prozess

Die meisten von uns verwendeten Parameter optimieren diesen Prozess der Informations Extraktion (IE). Dabei wird bestimmt, in welcher Form die Daten gespeichert werden und ob diese ggf. vor dem Speichern um Metadaten wie Schlagworte, Titel oder Zusammenfassungen ergĂ€nzt werden. FĂŒr die Vektorisierung verwendeten wir das Modell Qwen3-embedding:0.6B. Die mittels AutoRAG optimierten Parameter sind im Folgenden aufgelistet:

  • Chunk_Size: Wie groß sind die Informationsabschnitte, die spĂ€ter zugreifbar sein sollen?
  • Chunk_Overlap: Wie stark ĂŒberlappen sich die Informationsabschnitte?
  • Extractors: Welche Datenanreicherungen sollen erfolgen (zum Beispiel Zusammenfassung erstellen, Fragen generieren)?
  • Top_K: Wieviele Chunks werden als Suchergebnis geliefert?

Sind die Daten eingelesen und wird eine Suchanfrage gestellt, wird das System nach relevanten Informationsabschnitten durchsucht. Dieser Prozess wird „Information Retrieval“ genannt. Man kann es mit den Ergebnissen einer Google-Suche vergleichen, bei der die relevantesten Ergebnisse nicht zwangslĂ€ufig an erster Stelle der Liste stehen.

Information Retrieval in einem RAG Prozess

Information Retrieval bedeutet, zur Frage des Nutzers relevante Informationen zu finden. In diesem Prozessschritt optimieren wir den Parameter „Top_K“, der definiert, wie viele der Suchergebnisse im weiteren Prozess berĂŒcksichtigt werden. Ist Top_K zu klein, sind wichtige Quellen eventuell nicht enthalten. Ist Top_K zu groß, verarbeitet man eventuell eine große Menge wenig relevanter Inhalte.

Optimierungsverfahren

Statt alle möglichen Kombinationen auszuprobieren (was sehr lange dauern wĂŒrde), kommt ein Suchalgorithmus zum Einsatz, der die verschiedenen Parameter stufenweise verbessert. Dieses als Greedy („gierig“) benannte Verfahren optimiert zunĂ€chst nur einen einzigen Parameter, dann den nĂ€chsten usw. Wir verzichten damit auf optimale Lösungen, erreichen aber hinreichend gute Ergebnisse mit akzeptablem Aufwand.

Als Bewertungsmaß fĂŒr die Optimierung dient dabei der sogenannte Mean Reciprocal Rank (MRR) – ein Maß dafĂŒr, an welcher Position relevante Inhalte in der Trefferliste platziert sind. Ein entscheidender Vorteil:
Die Bewertung erfolgt vollstÀndig ohne KI-Antwortgenerierung. Es wird also nur getestet, wie gut das System relevante Inhalte findet, nicht wie gut eine KI daraus spÀter Antworten generiert. Dadurch wird erheblich Rechenzeit gespart.

Antwort Generierung in einem RAG Prozess. Diese Phase wurde in der Optimierung NICHT berĂŒcksichtigt

Technische Umsetzung

Die Implementierung erfolgte vollstÀndig im MediaWiki-Umfeld mit:

  • Wikibase4Research
  • einer Docker-basierten Python-API
  • dem RAG-Framework LlamaIndex
  • lokaler Modellbereitstellung ĂŒber Ollama

Die Experimente liefen auf einem handelsĂŒblichen Laptop aus dem Jahr 2022 (Dell Latitude 5421, Intel Core i7-11850H mit 8 Kernen, 16 GB RAM) – ohne GPU-Beschleunigung.

Ergebnisse

Trotz der bewusst schlanken Hardware-Ausstattung konnte die Optimierung meist bereits innerhalb einer Stunde abgeschlossen werden. Dabei wurde bei allen DatensÀtzen eine starke Verbesserungen der Abfrageergebnisse erzielt.

FĂŒr unser QualitĂ€stmaß, den Mean Reciprocal Rank (MRR), ergab sich eine Steigerung von durchschnittlich 12 bis 25 Prozent gegenĂŒber den voreingestellten Parametern. Das bedeutet, in den Ergebnissen der Suchanfrage waren mehr relevante Quellen aufgefĂŒhrt und relevante Quellen standen in der Ergebnisliste an höherer Stelle als zuvor. In einzelnen DatensĂ€tzen ergaben sich sogar Verbesserungen von bis zu 50 Prozent. Dabei ließen sich vergleichbare Ergebnisse auch mit Artikeln erreichen, die nicht Teil der Optimierungsschleife waren (Cross-Validation).

Warum ist das relevant?

FĂŒr wissenschaftliche Infrastrukturen wie digitale Bibliotheken, Fachrepositorien oder Forschungsdatenplattformen ist es entscheidend, KI-Systeme effizient und ressourcenschonend betreiben zu können. Die Ergebnisse zeigen: Sinnvolle RAG-Optimierung ist auch ohne Rechenzentrum machbar.

Das senkt technische HĂŒrden, reduziert Kosten und macht den Einsatz moderner KI-Technologien auch in kleineren Projekten realistisch.

Ausblick

Die fĂŒr die Suche verwendeten Embedding-Vector-Modelle haben einen erheblichen Einfluss auf die Ergebnisse (vgl. Orbach et al. (2025)) und zwar sowohl auf die Rechenzeit als auch auf die ErgebnisqualitĂ€t. Dabei zeigen Modelle nicht auf allen DatensĂ€tzen die gleichen Ergebnisse.

Es ist auch nur begrenzt möglich, die Optimierung mit extrem kleinen oder schnellen Embedding-Modellen auszufĂŒhren und die optimierten Parameter dann zusammen mit einem anderen, leistungsfĂ€higen Modell im Live-Betrieb einzusetzen. Sind die eingesetzten Embedding-Modelle nicht angepasst genug an die verwendete WissensdomĂ€ne, liefert auch die Optimierung nur suboptimale Ergebnisse.

Genau an diesem Punkt wird unsere Arbeit im Open Science Lab in der nÀchsten Zeit ansetzen. Gemeinsam mit den Fachinformationsdiensten FID Material Science, FID Move, FID Pyhsik und FID Philosophie evaluieren wir die Möglichkeit einer stÀrkeren Vernetzung von NFDI und FIDs mit dem Ziel, die einzelnen WissendomÀnen mit fachspezifischen Embedding-Modellen zu versorgen. Zielsetzung ist es, damit den Zugang zu dieser Technologie noch weiter zu vereinfachen sowie die QualitÀt der Ergebnisse von KI-Anwendungen im Forschungs- und Bibliotheksumfeld gezielt zu erhöhen.

Prof. Dr. Ina BlĂŒmel, Open Science Lab // Foto: TIB/C. Bierwagen

„AutoRAG ist fĂŒr uns ein wichtiger Innovationsschritt: Es macht RAG in offenen WissensrĂ€umen wie Wikibase messbar, wiederholbar und mit ĂŒberschaubaren Ressourcen betreibbar. FĂŒr Projekte wie NFDI4Culture und weitere Vorhaben im Open Science Lab bedeutet das spĂŒrbar bessere, nachvollziehbare KI-gestĂŒtzte Suche ĂŒber heterogene BestĂ€nde – ohne dass tiefes Spezial-Know-how aufgebaut werden muss. NĂ€chster Schritt ist der Ausbau fachspezifischer Embeddings, kuratierter Testsets und transparenter Workflows, damit die QualitĂ€t und Nachnutzbarkeit langfristig steigt.“

Relevante Links

#SemanticMediawiki #FIDMaterialsScience #LizenzCCBY40INT #Wikibase #FIDPhysik #Projekte #RAG #KI #NFDI4Culture #FID #FIDMove

WikiApiary is back online after having been down and overloaded for a long time.

Bawolff brought it back and did a ton of full stack performance work to optimise the whole system. Adding HTTP caching, tuning InnoDB, and more!

https://blog.bawolff.net/2026/03/giving-wikiapiary-kick.html

#MediaWiki #WikiApiary #Wikibase #Wikidata #VinylCache #VarnishCache #MariaDB #MySQL #webperf #SRE

Giving WikiApiary a kick

A few days ago I was listening to some of the talks at MUDCon (The MediaWiki conference aimed at non-Wikimedia uses of MediaWiki). During J...

RE: https://wikipediapodden.se/wikibase-cloud-martyn-ranyard-360/

I got the chance to speak with Martyn Ranyard, Engineering manager at Wikibase Cloud. (Ping @Wikibase ) #Wikibase

@lozross von @tibhannover bei #awl2026 zum ECHOLOT Projekt, das die EuropÀische Kulturerbe Cloud (ECCCH) und Europeana besser mit dem Wikiversum verbinden soll

#mediawiki #wikibase #wikidata #openglam

Introducing NeoWiki... and more

NeoWiki is the modern #OpenSource collaborative knowledge management solution. Co-presented with @krabina who covered @ECHOLOT_Project

Discover #NeoWiki, MediaWiki #MCP, and #Wikibase extensions via our recap of the #MediaWiki Users and Developers Conference

https://professional.wiki/en/news/our-talks-at-mudcon

Introducing NeoWiki and More at MUDCon

Professional Wiki at MUDCon: introducing NeoWiki for modern structured data, Wikibase extensions overview, and the MediaWiki MCP Server for AI integration.

Professional Wiki

📝 An article we co-authored with @tibosl @tibhannover, colleagues Ina BlĂŒmel & Lucia Sohmen is finally out via the Journal of Open Humanities Data (special issue on #Wikidata): https://doi.org/10.5334/johd.440

It outlines hands-on learnings from the data curation workflows Lucia Sohmen has implemented in our lab within three concrete (and openly accessible) datasets. In addition, the article sets out the overall strategy Ina BlĂŒmel and myself have developed for managing cultural heritage data projects in the context of an interconnected Linked-Open-Data-driven Wikibase Ecosystem.

Check out the article, the supplement (with links to live queries & data viz) and let us know if it resonates with how you implement Wikidata in your digital humanities / cultural heritage projects!

#CulturalHeritage #Wikidata #Wikibase #DigitalHumanities #OpenScienceLab #LinkedOpenData

Segnaliamo un workshop organizzato dal Naples Dante Project in collaborazione con Wikimedia Italia.

25 marzo 2026 h. 10-13, presso la Biblioteca BRAU, Camillo Carlo Pellizzari di San Girolamo (coordinatore regionale Toscana e dottorando presso la Scuola Normale Superiore di Pisa)

"Open Data per la ricerca umanistica. Workshop sull'utilizzo di Wikidata e Wikibase".

#OpenData #Wikidata #Wikibase