@jorisvanzundert @tobiaskraft @stefan_hessbrueggen @toroe Yes, that was what I was thinking about. Metadata in #DublinCore and additionally in some wrapper XML. Display abilities would depend on the abilities of your device (RaspPi 4B is much better than "minimal" in this regard, but it adds a device-level dependence on longevity of Pi OS support etc).

【國際活動訊息轉發】DCMI 2025 將於 10 月在西班牙巴塞隆納舉行,主題聚焦於後設資料(metadata)與人工智慧的交匯,並包含與 Wikidata 密切相關的議題。

DCMI 2025 Barcelona 是 Dublin Core (都柏林核心) 與後設資料應用領域的年度盛事,將於 2025 年 10 月 19 日至 25 日 在 西班牙巴塞隆納大學資訊與視覺媒體學院舉行。主題為 「Meta(data) at the Core: Bridging Human Knowledge and AI Innovation」,強調後設資料在連結人類知識與人工智慧創新中的核心角色。

活動資訊可參閱官方網站
https://www.dublincore.org/conferences/2025/

#metadata #後設資料 #AI
#DCMI #DC #DublinCore #都柏林核心
#活動 #event

Top 5 reasons to hate the Facebook like button #etc #facebook #like #lessig #dublincore #semanticweb #opengraph #metadata Why can't you link to an existing page? How can you have a like button per blog post on your home page? Are we headed towards a world with only one verb?

https://fed.brid.gy/r/https://ithoughthecamewithyou.com/post/top-5-reasons-to-hate-the-facebook-like-button

Top 5 reasons to hate the Facebook like button

Why can't you link to an existing page? How can you have a like button per blog post on your home page? Are we headed towards a world with only one verb?

I Thought He Came With You

#Handschriftenportal erhält erste Schnittstelle: Der Zugriff auf unseren umfangreichen Datenbestand ist nun per #OAIPMH möglich. Datensets sind als #TEI und #DublinCore verfügbar.

🔜 Weitere Schnittstellen folgen. Um die Bedarfe der Community besser einschätzen zu können, freuen wir uns über Ihr Feedback: Welche Schnittstellen sind für Ihre Arbeit und Forschung besonders relevant?

Alle Informationen ➡️ https://blog.sbb.berlin/hsp-oai-schnittstelle/

@histodons @medievodons

#digitalhumanities #manuscripts #api

#TIL the `Object Name` field in #IPTC contains the title but truncated at 64 characters, whereas the `ImageTitle` field in #XMP or `Title`field in #DublinCore contain the full title. 🤷‍♂️

When you want to find the needle in the haystack… hum wait, no, a field in a photo metadata, there's #ExifTool: https://exiftool.org/TagNames/

#photography

⚓️ https://nicolas-hoizey.com/notes/2025/05/30/1/

ExifTool Tag Names

In einem gemeinsamen Workshop der Konsortien @NFDI4Memory , @nfdi4objects und @Textplus auf der #DHd2025 wurde anhand konkreter Use Cases eine Einführung in #DublinCore, #TEI und #LIDO vermittelt, die Bedeutung von #Normdaten und #Terminologien betont und die #Minimaldatensatz-Empfehlung für #Museen und #Sammungen vorgestellt. Die Folien finden sich bei Zenodo: https://zenodo.org/records/15052040

#FAIR #CARE #NFDI #Text+ #NFDI4Memory #NFDI4Objects #Datenharmonisierung #Datenqualitaet 2/2

Qualitativ hochwertige Metadaten in digitalen Editionen

Materialien zum Workshop "Qualitativ hochwertige Metadaten in digitalen Editionen“, der im Rahmen der „DHd 2025: Under Construction“ in Bielefeld von Mitarbeiter:innen der NFDI-Konsortien Text+, NFDI4Memory, NFDI4Objects, der Verbundzentrale des GBV und dem Institut für Museumsforschung gehalten wurde. Ziel des Workshops war die praxisnahe Vermittlung von Wissen zur Bewertung und Verbesserung der Qualität von Metadaten in digitalen Editionen. Ausgehend von konkreten Fallbeispielen in Form verschiedener Überlieferungssituationen von Briefen (neu zu erschließen, Abschrift, indirekter Hinweis) wurden die Problemfelder aufgerissen, die hinsichtlich der Beschreibung der verschiedenen Arten von Metadaten auftreten können. Drei Übungsblöcken waren jeweils kurze thematischen Einführungen zu den Basisthemen Metadaten, Normdaten und kontrollierten Vokabularen, Dublin Core, LIDO sowie Datenqualität und Datenkuratierung vorangestellt. In den Praxisübungen arbeiteten die Teilnehmer:innen in Gruppen oder eigenständig mit den Metadaten-Standards Dublin Core, LIDO und TEI-XML. Die Übungen zielten darauf ab, die Erstellung von Metadatensets, auch anhand von Metadateneditoren, zu erproben und aus der eigenen Erfahrung Methoden zur Bewertung der Qualität und zur Bereinigung eigener bzw. bereits vorhandener Metadatensets zu entwickeln.

Zenodo

@Textplus @NFDI4Memory

Da dieser Workshop aufgrund des wichtigen Themas sehr schnell ausgebucht war, finden Sie hier das Abstract: https://zenodo.org/records/14943264.

#DHd2025 #Metadaten #Normdaten #Terminologien #Vokabulare #digitaleEditionen #Datenqualität #Minimaldatensatz #TEI #LIDO #DublinCore #Personennamen #Ortsnamen #Standardisierung

Wir freuen uns auf den Austausch, sowohl auf der DHd als auch danach.

Qualitativ hochwertige Metadaten in digitalen Editionen

Metadaten sind der zentrale Schlüssel, um Datenpublikationen verfügbar, indexierbar und verknüpfbar zu machen. Sie geben Aufschluss über die Provenienz, Erfassung und Bearbeitung von Daten und ermöglichen den Communities, die Daten nachnutzen möchten, eine Kontextualisierung ihrer Entstehungsbedingungen. Reich an potentiellen Metadatenquellen stellen Editionen – digitale wie analoge – durch Register, Apparate, Personen- und Ortsnamen sowie die Dokumentation von Textbearbeitungsstufen die Erfassung mittels standardisierter Formate vor besondere Herausforderungen. Der Workshop fokussiert die Erzeugung standardbasierter Metadatensets von und für die Erarbeitung von Editionen unter dem Gesichtspunkt von Metadatenqualität. Im Workshop werden daher praxisnah Kenntnisse zur Bewertung und Verbesserung der Qualität von Metadaten in digitalen Editionen vermittelt. Zu den Kernelementen zählen Praxisübungen in Kleingruppen anhand konkreter Use Cases (Dublin Core, LIDO) und für die Herstellung digitaler Editionen relevanter Metadaten-Standards. Den Hands-On-Phasen vorangestellt sind konzise Einführungen zu den Feldern und Standards von Metadatenformaten, kontrollierten Vokabularen, Aspekten der Datenqualität und Phasen der Datenkuratierung.

Zenodo

Petite bouteille à la mer. Je commence à utiliser un web clipper pour sauvegarder des articles en markdown. Du coup j'essaie aussi d'automatiser l'ajout de métadonnées au début du fichier.

Sauf que je tombe sur le manque de standard en HTML sur le sujet. Les balises meta incluent author, description, et c'est à peu près tout.

Y a-t-il eu des discussions sur le sujet ? Des gens qui ont cherché à se mettre d'accord sur le standard à utiliser ?

Retoot apprécié !

#metadata #dublincore #opengraph

Today I will be wearing my metadata hat to present the Dublin Core Scholarly Resources Application Profile (DC-SRAP) at the Minute Madness session & Poster reception. How to extend and standardize DC metadata to fit the needs of academic repositories? How to describe articles, preprints, theses etc. with rich metadata?

Documentation: https://github.com/dcmi/dc-srap

A0 poster: https://github.com/dcmi/dc-srap/blob/main/posters/SRAP-poster-OR2024-final.pdf

#OpenRepos2024 #DublinCore #SRAP #metadata

GitHub - dcmi/dc-srap: Scholarly Resources Application Profile working group

Scholarly Resources Application Profile working group - dcmi/dc-srap

GitHub

I am of course also thinking about the #Web (#Q466) in general. We are in a time of crisis with the decline of the quality of #Google as a search engine.

In the early years of the web there was a belief in #MetaData but it was cumbersome. Today, adding #DublinCore data to a webpage should be as easy as adding a keyword to a #blog post. But it isn't done.

We got away with haphazard metadata and #tagging while Google still worked but those days are over.

We need to think systematically.