Bei manchen #Bibliothek​en kommt man dank Doku und Bsp. schon recht gut an die #Daten - und findet sich Momente später in verlassenen Wikis, verstaubten Excel-Tabelle und Webseiten des vergangenen Jahrtausends wieder, um irgendwie die Bedeutung der Felder zu dechiffrieren. Eine Möglichkeit, diesen Hermetismus aufzubrechen, besteht in der Umarbeitung des Dateiformats (#MARC -> semantisches JSON), was aber schlecht skaliert, kaum standardisierbar ist und Menschen nicht wirklich befähigt.
1/2

Besser wäre wohl eine zugängliche Einführung. Gibt es so etwas vielleicht gar schon? Kennt da jemand was? Ich denke hier an eine Lesehilfe für MARC-Daten für Nicht-Bibliothekar:innen, idealerweise mit Verweisen auf einigermaßen aktuelle Ressource z.B. zum Wildwuchs in den lokalen von den Institutionen nach gusto befüllten lokalen Feldern.

#GLAMdata #GLAM #FAIR
2/2

@awinkler Das ist auch wieder ein super Thema für metadaten.community. 😉
@acka47 ich krieg das mit den versch. Plattformen nicht so gut hin :-) Aber danke für den Hinweis!

@awinkler
Vielleicht sind die schon unter den schlechten Quellen gewesen, aber...
* https://www.loc.gov/marc/ (da auch Translations im Menü)
* https://www.dnb.de/EN/Professionell/Metadatendienste/Exportformate/MARC21/marc21_node.html

Hab selbst selten was damit zu tun, find es aber auch Fummelig was gesichert aktuelles zu finden.

Edit: Vielleicht sind auch die Editoren nützlich, wobei ich den 2. noch gar nicht gehört habe.
* https://marcedit.reeset.net/features
* https://csharpmarc.net/

@vform danke! Das waren tatsächlich einige der Quellen, auf die ich mich bezog 🙂

Für Pica rettet einen diese Tabelle manchmal: https://format.k10plus.de/k10plushelp.pl?cmd=p3list&katalog=Standard

Hoffnungsvoll stimmt überdies so etwas: https://format.k10plus.de/avram.pl

Bei der Gelegenheit entdeckt: https://pro4bib.github.io/pica/#/ (von @nichtich). Zielgruppe scheint mir aber die Bibliotheksinformatik im weiteren Sinne zu sein.

K10plus

@awinkler @vform Was hättest du denn gerne? a) in Bezug auf PICA und die Einführung? b) für MARC?

Diskussion auch gerne unter https://metadaten.community/ dann können dritte ggf. besser davon profitieren.

metadaten.community

Austausch für Metadatenpraktiker:innen

metadaten.community
@nichtich @vform ok, habe hier das Thema mal ins Forum geschrieben: https://metadaten.community/t/bibliothekarische-metadaten-von-der-nachnutzung-her-denken/506 . Mir geht es weniger um ein konkretes Anliegen als ums generelle Problem, dass die Nachnutzbarkeit der Daten theoretisch gegeben, praktisch aber mit enormen Hürden verbunden ist.
Man muss eigentlich schon vom Fach sein, um mit den Daten arbeiten zu können, und das ist nicht optimal.
Bibliothekarische Metadaten von der Nachnutzung her denken

Ich öffne diesen Thread auf Basis dieses Fediverse-Posts und auf Anregung von @acka47 und @nichtich . Ich versuche aktuell etwas genauer auf die Nachnutzbarkeit von GLAM-Daten zu schauen. Ausgangsthese/-beobachtung ist, dass Daten zwar zunehmend verfügbar sind, doch nicht immer in einer Weise, dass sie gerne nachgenutzt werden können/wollen (bislang habe ich hierzu nur ein paar Folien unter Collections as data. Potenziale und Herausforderungen der Nutzung offener Kulturerbedaten). Bibliotheksda...

metadaten.community
@awinkler vollste Zustimmung für diese Intervention. Wie es auch anders geht, demonstriert die HAB, nicht mit dem eigenen Katalog, sondern mit dem VD 17: https://repo.hab.de/items/2ba1af1f-a2f7-4bb5-ac3f-14a067a5f936 @nichtich @vform
Dump der Katalogdaten aus dem Verzeichnis der im deutschen Sprachraum erschienenen Drucke des 17. Jahrhunderts - Correction

Im Verzeichnis der im deutschen Sprachraum erschienenen Drucke des 17. Jahrhunderts (VD 17) werden alle Drucke dieses Zeitraums verzeichnet, die, unabhängig von der Sprache, innerhalb des deutschen Sprachraumes erschienen sind oder in deutscher Sprache gedruckt wurden, aber außerhalb des deutschen Sprachraums erschienen sind. Getragen wird das VD 17 von der Staatsbibliothek zu Berlin - Preußischer Kulturbesitz, der Bayerischen Staatsbibliothek, München und der Herzog August Bibliothek, Wolfenbüttel. Die hier angebotenen Forschungsdaten enthalten den Export sämtlicher Titelaufnahmen in einem nutzerfreundlichen JSON-Format mit Katalogisierungsstand vom 9. Januar 2o24, 12:42 Uhr.

@stefan_hessbrueggen @nichtich @vform ja, @hartmut_beyer hat da eine gute Lösung gefunden. Mit dem Dump braucht eine nicht-bibliotheksaffine Person mit coding skills 5 Minuten, um mit den Daten produktiv umzugehen. Mit den übl. Bibliotheksdaten kann das etl. Stunden dauern. Ich denke trotzdem, dass die Übersetzung in menschenlesbares JSON nicht der Königsweg ist, weil man immer auf diesen Zwischenschritt angewiesen bleibt. Eher muss erklärt werden, bis Laien etwas mit den Daten anfangen können.
@awinkler Ja, Dokumentation ist toll. Aber auch Bibliothekar:innen wissen vielleicht nicht immer, was genau in ihren Daten vor sich geht. Eigtl. braucht es dann vermutlich in vielen Fällen institutionelles Gedächtnis bzw. "oral history". Das ist jedenfalls mein Verdacht, wenn ich mit Metadaten hantiere. @nichtich @vform @hartmut_beyer
@stefan_hessbrueggen @nichtich @vform @hartmut_beyer wobei es einen ja doch immer wieder überrascht, wie hochgradig spezifiziert die Erschließungspraxis ist. Im Zweifel findet sich immer irgendwo eine Regel 😉