Vorhin im täglichen #Bibnez DGI-Veranstaltungsnewsletter erneut DEN SATZ gelesen:

"viele Bibliotheken setzen bereits Künstliche Intelligenz ein oder planen den Einsatz von KI-Tools"

Nur:

- Welche Bibliotheken setzen Künstliche Intelligenz ein?
- Wofür setzen diese Bibliotheken Künstliche Intelligenz ein?
- Welche Bibliotheken planen den Einsatz von KI-Tools?
- Um welche KI-Tools geht es da?

Bitte inspiriert mich und schreibt wenn ihr das beantworten könnt. Ich nehme gern ernsthafte Antworten

Die #vzg_gbv hat heute auf ihrer #Verbundkonferenz an zwei Stellen erklärt, dass es in CLAIM (Katalog der TU Clausthal) [seit April] "KI-generierte Vorschläge für gesuchte Titel" gibt.

Siehe: https://www.ub.tu-clausthal.de/nachrichten/nachrichtendetail?tx_news_pi1%5Baction%5D=detail&tx_news_pi1%5Bcontroller%5D=News&tx_news_pi1%5Bnews%5D=28138&cHash=f9e35ff74c5030178017284ba60d44ec

Update der Katalogsuche

Jetzt mit neuen Funktionen, einschließlich KI-generierter Vorschläge.

@anotherfami bei Fragen dazu gerne melden ;)

@BarryJive Die wichtigste Frage wurde im Chat ja beantwortet. Der Prototyp (der in Lukida in der TU Clausthal genutzt wird) basiert auf einer Eigenentwicklung der VZG in K10plus-Zentral bei der derzeit das vortrainierte Sprachmodell nomic-embed-text-v2-moe verwendet wird das derzeit in einer eigenen sehr "dünnen" Server-Schicht auf (eigener) VZG-Hardware läuft.

Was auch immer alle diese Worte bedeuten mögen.

@anotherfami Etwas mehr Klartext: es werden derzeit nur die Titeldaten "embedded", also in einen mehrdimensionalen Vektorraum abgebildet, der für die Anerkennung von Ähnlichkeiten genutzt werden kann. Bei einer Suche greift das System anhand des angeklickten Titels auf die Datenbank zu, sucht die ähnlichsten Treffer und bringt die zur Anzeige.
Da das Embedding nicht live durchgeführt werden muss, wird das in bestimmten Intervallen erzeugt und aktualisiert. So braucht das sehr wenig Ressourcen.

@BarryJive Habt ihr eine Lösung für die Dubletten, die im K10plus drin sind? Also insgesamt oder in Bezug auf euren KI-Empfehlungsdienst. Oder stören die gar nicht so?

Alles was in DOAB drin ist z.b. ist ja immer mindestens in OAPEN noch ein zweites Mal drin.

Beispiel: https://claim.ub.tu-clausthal.de/search?q=Queere+KI

Claim

@anotherfami du meinst im Hinblick darauf, dass die ersten 3 Treffer dann auch wieder der Titel selbst sind? Nee, da haben wir nix lokal in der Planung.
Achtung, Privatmeinung: Eigentlich wäre es sinnvoller für die Suchenden, wenn sie nur einmal den Treffer angezeigt bekämen. Vielleicht ist es also eher ein Problem, dass man derartige Katalogisate mehrfach erfasst.

@BarryJive Zum einen das die 3 ersten empfohlenen Treffer der identische Titel aber verschiedenen Titelaufnahmen sind, ja.

Zum anderen scheint es ja herausfordernd zu sein Dublettenzusammenlegung zb über Matchkeys im Discoverykatalog umzusetzen, weswegen es auf der Ebene des Suchindex da keine Lösung gibt. Weder bei Print-Dubletten, noch bei Print und E-Book.

Und auf der Katalogisierungsebene muss es ja bei E-Books je Zugang eine eigene Aufnahme geben, also ist auch da nichts zu machen.

@BarryJive Hatte gehofft das vielleicht das Thema Zusammenlegung von E-Book und Print oder von Print-Dubletten (im Katalog) in den Trefferlisten vielleicht im Lukida-Kontext diskutiert wird 😅
@anotherfami noch nicht in der Tiefe. Aber ich nehme es mal in den fachlichen Rat mit. Es war aber schon herausfordernd genug, die verschiedenen Linkebenen in einem Katalogisat zufriedenstellend abzubilden.
@anotherfami "muss" provoziert bei mir immer ganz viele "warum?"
Aber vielleicht fehlt meiner Ausbildung da nur der bibliothekarische Schwerpunkt ;)
@anotherfami @BarryJive Gerade in Entwicklung von uns auf Basis einer älteren Leipziger Entwicklung für VuFind ohne KI: Result Grouping. Das fasst mehrere gleiche Publikationen zusammen und man kann nach aufklappen den passenden Treffer auswählen.
@olaf_brandt @anotherfami @BarryJive verrückt - nicht, dass das nicht alles mit good old fashioned information retrieval möglich gewesen ist. aber ich werde wohl alt - habe ja auch der 9-jährigen gesagt, dass shirin davids „bauch, beine, po“ sexistische kackscheiße ist…

@david Du könntest vielleicht in den Dialog gehen in dem du dieses TikTok-Video von Caren Lay (1:10) abspielst das Bauch Beine Po (feministisch) parodiert:

https://www.tiktok.com/@caren.lay.mdb/video/7405847049960262944?lang=de-DE

TikTok - Make Your Day

@olaf_brandt Das klingt interessant. Kann ich irgendwo mehr erfahren? Ich habe einen naiven starken Glauben daran, dass Result Grouping in Discovery-Katalogen sehr hilfreich ist. Insbesondere im Bereich Verknüpfung von Print- und Online-Zugriffen. Bin leider nicht findig genug um da einen realistischen Einblick auf die Umsetzbarkeit* zu haben.

*Ich wünsche mir die Anzeige eines Treffers pro Werk unter dem alle Manifestationen (Print-Exemplare, Online-Zugriffe) auftauchen.

@BarryJive

@anotherfami @olaf_brandt Is ja OK, ich packe es ja schon als Feature-Request ins Board... ;)
Danke für den Input, ernsthaft. Selbst wird man manchmal ein wneig betriebsblind.
@anotherfami @BarryJive
Es ist gerade in der Abstimmun mit der FID- Community und soll auf der VuFind 2025 in zwei Wochen deutschlandweit abgestimmt werden:
https://github.com/ubtue/tuefind/pull/3228
Es ist also noch nicht fertig!
Integrate finc/vufind-results-grouping to Tuefind 10 by steven-lolong · Pull Request #3228 · ubtue/tuefind

A first attempt to integrate the external module from FINC. Since the module is made for an old VuFind (+PHP) version, some of the original files need to be modified. This cannot be done by includi...

GitHub

@olaf_brandt

Danke. Ich hoffe es macht Sinn das zu vufind-org zu migrieren.

"Discuss with the community + people from FINC whether it might make sense to migrate this to vufind-org"

@BarryJive

@anotherfami @BarryJive Da kam tendenziell eher Ablehnung (Doppelungen zu FRBR-Parts), aber nach der Abstimmung in der deutschen Community werden wir es noch mal versuchen bei VuFind.org einzubringen.
@anotherfami das hat die Stadtbibliothek München auf der letzten bibliocon auch vorgestellt -> https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/collection/id/16258/docId/19775 ich fand das als use case recht überzeugend. Alles steht und fällt natürlich mit der Qualität und Quantität der Metadaten.
BIB: OPUS-Publikationsserver | Besser stöbern mit Künstlicher Intelligenz: Eine inspirierende Lösung und deren Umsetzung in der Münchner Stadtbibliothek

Im vergangenen Jahr wurde innerhalb der Landeshauptstadt München ein innovatives KI-Tool entwickelt, welches den OPAC der Münchner Stadtbibliothek, um eine „Stöbern“-Funktion auf Basis eines AI Recommendation Systems ergänzt. Hiermit wird unser vielfältiger Bestand auf eine visuelle und ansprechende Weise präsentiert. Diese neue Funktion zeigt unseren Nutzer*innen direkt auf der Titelanzeige eines Mediums im Katalog eine Reihe weiterer Titel aus unserem Bestand. Gemeinsam ist diesen Titeln die inhaltliche Ähnlichkeit. Mit einem Klick auf einen empfohlenen Titel gelangt man zum nächsten Medium. Dies kann man beliebig oft fortsetzen. Eine zusätzliche Benutzereingabe ist nicht notwendig. Ziel ist es, unseren Bestand, der auf viele Standorte verteilt ist, visuell zentral erlebbar zu machen. Für die Generierung der Empfehlungen wandelt ein Embedding Modell die Texte in eine Vektordarstellung. Dadurch können die Medien über ihren Vektor in einem mehrdimensionalen Vektorraum angeordnet und dargestellt werden. Je näher die Medien zueinander im Vektorraum liegen, desto ähnlicher sind sich die Texte inhaltlich und somit auch die Medien zueinander. Um sicherzustellen, dass das Tool den Bedürfnissen unserer Nutzer*innen entspricht, haben wir in mehreren Testzyklen zunächst bibliothekarisches Fachpersonal und danach mit Hilfe eines Prototyps auch Kund*innen befragt. Parallel wurde eine Online-Befragung durchgeführt, die die Rückmeldungen der Tester*innen strukturiert und auswertbar erfasste. An diesem Projekt waren innerhalb der Landeshauptstadt München neben dem UX Team der Münchner Stadtbibliothek auch das InnovationLab und das KI Competence Center von IT@M sowie das Statistische Amt beteiligt. In unserem Vortrag möchten wir nicht nur das Tool selbst vorstellen, sondern auch von unseren Erfahrungen während der Umsetzungsphase berichten.

@awinkler @anotherfami ja, an die Session musste ich eben auch wieder denken. Das waren auch die mit der Visualisierung in 2D, damit man die begfriffliche Nähe auch noch eher einschätzen kann. Bei den ÖB fließen aber in die Embeddings teilweise auch noch die Kurzbeschreibungen der Titel an, was die Methode ggf. noch einmal verbessern kann.
Fun fact: die Klassifizierungssysteme haben schlechtere Ergebnisse geliefert als einfach nur die Titel...
@anotherfami afaik die DNB zur Sacherschließung

@wobintosh Da hast du recht. Es gibt ja auch zb annif als Werkzeug in diesem Bereich.

Aber ich mache keine Sacherschließung und Frage mich was gibt es darüber hinaus in der Praxis? Außer Chatbots.

@anotherfami Gut, da bin ich raus 😅 Ich habe zwar immer noch ein halbes Auge auf die OA-Bibliotheks-Zeitschriften, aber nicht so vertieft. Dafür haben wir selbst zu viele interessante Veröffentlichungen.
@anotherfami
Ich bin mir sicher, der nächste BibliotheksVerLeitungsTag wird dir da sicher definitive Antworten drauf geben, die haben sich dieses Jahr ganz mutig genau das Thema als Titel gesetzt (welches auch sonst?) und wir werden es dann sicher auch spüren, wie sich der Alltag in Bibliotheken für uns alle fundamental und für immer verändert hat 🙃
@nb @anotherfami Dranbleiben. Richtige Fragestellungen. Monitoren. Nicht verzagen, verlorene Nerven durch Kekse wieder auffüllen.
@anotherfami Danke. Und: was kostet es? Welche Anbietenden stecken dahinter? Wo werden die Daten gehostet?
@anotherfami nicht gemeint natürlich, aber trotzdem relevant: OCR und Layoutanalyse.
@anotherfami ganz konkret trainiere ich gerade einen Chatbot der uns intern mit den lästigsten fragen hilft.
Software ist von Localminds und der Server dazu steht bei uns im Keller.
Soll in 4 Wochen live gehen.
Wenn das gut klappt werde ich als nächstes die unsere Katalogdaten einpflegen und perspektivisch auch die oa Dokumente verfüttern und den bot auch für externe freigeben.
Gleichzeitig füttere ich einen Bot mit Lernmaterialien unserer Azubis aus 5 berufen die hier ausgebildet werden.

@fami_guy

Ziemlich cooles Projekt. Viel Erfolg!!

Erinnere mich von dem ganztägigen Event: "Neue Per­spek­ti­ven auf KI in Bi­blio­the­ken" an die Vorstellung der Masterarbeit "Evaluation von offenen Large Language Modellen zum Einsatz in Bibliotheken" (https://doi.org/10.15771/MA_2025_2). Da ging es auch um Ausbildung.

Und es gab einen Beitrag aus Bremen wie komplex es zu sein scheint die Wissenbasis der eigenen Einrichtung für einen Chatbot so aufzubereiten, dass die Fehlerquote möglichst gering ist.

OPUS 4 | Evaluation von offenen Large Language Modellen zum Einsatz in Bibliotheken

Das Thema der künstlichen Intelligenz und insbesondere auch der Sprachmodelle spielt für Bibliotheken eine Rolle steigender Wichtigkeit. Allerdings können proprietäre Modelle aufgrund von Kosten oder Anforderungen an den Datenschutz nicht immer von Bibliotheken genutzt werden. Ziel dieser Masterarbeit ist es, verschiedene offene Sprachmodelle darauf zu untersuchen, wie gut sie sich für einen Einsatz in Bibliotheken eignen könnten. Dazu werden zunächst in einem theoretischen Teil einige Aspekte rund um Sprachmodelle vorgestellt. Darunter fallen unter anderem der Aufbau, die Evaluation anhand von Benchmarks und das Finetuning von Sprachmodellen. Außerdem werden drei offene Sprachmodelle vorgestellt und rechtliche Aspekte in Bezug auf Sprachmodelle untersucht. Anschließend werden in dem praktischen Teil dieser Arbeit verschiedene offene Sprachmodelle auf ihre Leistungsfähigkeit in der deutschen Sprache getestet, sowie ein Finetuning und eine Evaluation eines Modells im Rahmen der Prüfungsvorbereitung der Auszubildenden der Stadtbücherei Frankfurt vorgenommen. Die Auswertung der Ergebnisse zeigt, dass einige Sprachmodelle auch im Deutschen gute Leistungen erbringen können. Jedoch konnten mit dem Finetuning eines Modells noch keine Ergebnisse erreicht werden, die den qualitativen Anforderungen einer Prüfungsvorbereitung für Auszubildende gerecht werden. Ein Einsatz zu Demonstrationszwecken oder in moderierten Bereichen, wie beispielsweise in Workshops, ist allerdings denkbar.

@anotherfami das habe ich auch massiv unterschätzt und frisst die meiste Zeit.
Lesson learned: bereitet eure Inhalte so vor, das sie ein Grundschulkind versteht!

@fami_guy Wenn du das Praxistipps hast wie das Wissen gut aufbereitet werden kann bin ich interessiert (auch wenn ich daran zweifle das meine Fähigkeiten ausreichen um selbst jemals auch so etwas anzufangen).

Machst du Vorträge zu dem Thema, wenn du weit genug bist?

@anotherfami wenn ich durch bin gibt es auf jeden Fall intern etwas dazu, vielleicht mache ich daraus noch einen betont unernsten Freiraum für Berlin
@anotherfami Wir setzen derzeit KI für die semiautomatische Zuweisung von Klassifikationspunkten ein.