Nach der LMU München startet nun auch die TU Dortmund in die Implementierungsphase der Praxisorientierten Leitlinien für Lieferanten von DataCite DOI-#Metadaten

Ziel ist es, den Metadatenaustausch zwischen den dSPACE-Repositorien der TU und DataCite nachhaltig zu verbessern.

Die Pilotierung zeigt exemplarisch, wie sich Leitlinienempfehlungen mit der Weiterentwicklung zentraler #OpenSource Infrastruktur verbinden lassen

#PIDs #OpenScience @dspacetweets @datacite

📣 Mi, 15.4.2026, 18:30 laden wir Sie herzlich zum nächsten #BBFSofa ein:

"A Date With (Meta-)Data – Das BBF-Datenuniversum"

Dieses Mal dreht sich alles um #Daten in #Bibliothek|en, insbesondere der @bbf_dipfberlin: vom Zettelkatalog bis hin zu hochvernetzten Datenökosystemen & was sich daraus machen lässt.

❗Anmeldung bis 13.4.2026❗

Details:
➡️ https://bbf.dipf.de/de/aktuell/termine/a-date-with-metadata

#histed #dh #histodons #Berlin #Veranstaltungstipp #FDM #Metadaten #OpenData #Visualisierung #Archiv #BBF150 @dipf_aktuell

📢 Einladung zum Treffen des CC Geophysikalische Prospektion 🌎

🗓 13.03.2026
⏰ 09:00–10:30 Uhr

🎯 Thema: Ergebnisse zur Ontologieentwicklung auf Grundlage der kommentierten „Minimal-Metadaten-Terminologie“.

🔗 Anmeldung über die Mailingliste: https://www.listserv.dfn.de/sympa/info/n4o_cc_geophysicalprospection

#NFDI #N4O #Prospektion #Ontologie #Metadaten #Forschungsdaten

Wie weit Schwurbler gehen: die zweite Folge zu Oliver #Lazar der Quarks #ScienceCops hat ein unglaubliches Ende, ein #Informatikprofessor wird mit Archive.org und #Metadaten in PDF ertappt😀

https://www.quarks.de/podcast/oliver-lazar-reloaded-science-cops/

Oliver Lazar Reloaded: Wir reagieren auf seine Vorwürfe

Recherchefehler bei den Science Cops? Oliver Lazar wirft uns vor, unsere Arbeit nicht sauber gemacht zu haben. Was steckt dahinter?

quarks.de

@autonomysolidarity

Der Mythos lautet: „Wenn ich einen sicheren Messenger benutze, passiert nichts.“

Die Realität ist komplizierter.

Nicht der einzelne Chat ist der Rohstoff der Maschinen.
Der Rohstoff ist das digitale Ökosystem.

Jede Nutzung digitaler Infrastruktur erzeugt Datenabfall.

• Verbindungszeiten
• Gerätefingerprints
• Netzwerkpfade
• IP-Beziehungen
• Aktivitätsrhythmen

Diese Metadaten entstehen überall:

Smartphone
Router
Mobilfunknetz
Cloudanbieter
Tracking-SDKs
Werbenetzwerke

Selbst wenn Inhalte verschlüsselt sind.

Auch Systeme wie
Tor, Yggdrasil, SimpleX, Signal oder DeltaChat
können nicht verhindern, dass auf anderen Ebenen Spuren entstehen.

Nicht im Protokoll.
Im Betriebssystem.
Im Netzwerk.
In der Hardware.

Darum entsteht der eigentliche Datenstrom nicht in einzelnen Apps.

Er entsteht im Zusammenspiel aus

User → Plattformen → Datenbroker → Behörden → KI-Analyse.

KI ist nur die Maschine,
die aus diesem Datenabfall Muster liest.

Der entscheidende Punkt ist daher nicht
„Welche App benutze ich?“

Sondern:

Wie viel digitale Infrastruktur füttere ich insgesamt?

#AI
#KI
#Surveillance
#Metadaten
#Privacy
#Infologie
#NOT4BFLU55

Der deutsche Text auf dem Plakat erklärt den Datenkreislauf von Maschinen und die Rolle von KI bei dessen Analyse, mit einem Schwerpunkt auf der "Dekontaminationszone der Filterblasen".

Das Bild ist ein stilisiertes Diagramm, das den Kreislauf von Daten im Zeitalter der Maschinen und künstlichen Intelligenz darstellt. Der Hintergrund ist dunkel, fast schwarz, mit goldenen Verzierungen und Zahnrädern, die eine steampunk-artige Ästhetik erzeugen. Oben thront der Titel "DER DATENKREISLAUF DER MASCHINEN" in großen goldenen Buchstaben.

Das Diagramm ist in mehrere nummerierte Ebenen unterteilt, die von oben nach unten durch Pfeile verbunden sind.

Ebene 1: "Menschen / Geräte" zeigt Icons für Smartphones, Router, PCs, Sensoren und Apps. Diese Elemente repräsentieren die Erzeuger von Daten.

Ebene 2: "Plattformen / Dienste" listet E-Mail, Messenger, Streaming Services, Cloud Computing und Social Media auf. Hier werden die Daten gesammelt und verarbeitet.

Ebene 3: "Datenbroker / Tracking" enthält Icons für Advertisement, Telemetry, Fingerprinting und SDKs. Diese Symbole veranschaulichen die Mechanismen zur Datenauswertung und -verfolgung.

Eine zentrale Sprechblase auf einem ornamentalen Hintergrund zitiert: "Der Rohstoff der KI ist nicht der einzelne Chat – sondern das gesamte digitale Ökosystem." Dies unterstreicht die Bedeutung der Gesamtheit aller Daten für die künstliche Intelligenz.

Daneben befindet sich eine Tabelle mit der Überschrift "Sicherheitsillusion", die Protokolle wie Tor, Yggdrasil, SimpleX, Signal und DeltaChat auflistet und den Hinweis gibt, dass zwar die Protokolle sicher sein können, aber Betriebssystem, Netzwerk und Hardware weiterhin Spuren hinterlassen.

Links eine weitere Box mit der Überschrift "Metadaten", die IP-Adresse, Uhrzeit, Gerätetyp, Standort, Kommunikationspartner und Paketgröße auflistet, mit dem Zusatz "Metadaten verraten oft mehr als Inhalte."

Ebene 4: "Staaten / Behörden" zeigt Icons für Investigations, SIGINT (Signal Intelligence) und Metadata-analysis. Dies repräsentiert die Nutzung von Daten durch staatliche und behördliche Instanzen.

Ebene 5: "KI-Analyse" bildet den Abschluss des Kreislaufs mit Icons für Brain-Network, Patterns, Simulations und Forecasts, die die Analyse- und Vorhersagefähigkeiten von KI darstellen.

Von Ebene 4 gehen gelbe, leuchtende Pfeile, die an Leiterbahnen erinnern, zurück zu verschiedenen Punkten des Kreislaufs, was auf einen kontinuierlichen Prozess hindeutet. Ein markanter stilisierter Schaltkreis mit binärem Code und leuchtenden Elementen ist auf der linken und rechten Seite des Bildes zu sehen.

Am unteren Ende des Plakats steht der Satz: "Digitale Infrastruktur erzeugt unvermeidbaren Datenabfall. KI ist die Maschine, die daraus Muster liest." Darunter befindet sich eine auffällige Box mit dem Aufdruck "NOT4BFLU55" und dem Untertitel "Dekontaminationszone der Filterblasen", umrahmt von einemornamentalas Bild eines Adlers in einem Schild.

Die Farbpalette ist dominiert von tiefem Blau und Gold, was dem Plakat einen seriösen, aber auch mysteriösen und leicht düsteren Ton verleiht. Die Atmosphäre ist technisch und informativ, mit einer Betonung auf Datensicherheit, Überwachung und der allgegenwärtigen Rolle von KI in der modernen Welt. Die Zahnräder und der steampunk-artige Stil vermitteln ein Gefühl von mechanischer Komplexität und vielleicht auch einer gewissen Vintage-Nostalgie, die im Kontrast zur hochmodernen Thematik des Datenkreislaufs steht.

Die #Semiotik der Architektur auf der #DHd2026 in #Wien hatte vor allem die Konzepte #Pracht und #Macht. Viel besser hat mir das #Hundertwasser-Museum gefallen. Hier das Bild mit dem Titel "beinahe ein Kreis". Das erinnert mich an die #Prototypensemantik und unseren #Workshop zu #Metadaten für #OER am Dienstag. #Zeichen sind unscharf, ungenau und gerade darum passend und zur Kommunikation geeignet. @hermes_datenkompetenzzentrum @jodageiger @dalia

Highlight im #Informatik Unterricht! Ein IT Experte, der über #Metadaten referiert und alle Fragen beantwortet - @Linkshaender, das war ein großes Vergnügen - meine Schüler*innen haben gefragt, ob du jetzt zu jedem Thema kommst 😬

Auch ein Lob an die Crew der #ByCS - alles reibungslos.

Ich muss mal wieder Werbung für Experten im Unterricht machen 😃 - voll gut!

📣 Wir laden zu einer Einführung in das digitale Erschließen (Metadaten I) ein!

Teil der Veranstaltung ist ein 👩‍💻Selbststudium mit eLectures👨‍💻. Darauf baut der Impulsvortrag und das anschließende Q&A auf.

📆 24. März 2026
⏰ 10-11:30
🗣️ Marco Klindt
📍 online, bitte vorher die eLectures studieren

Ausführliche Informationen, Link zu den eLectures und Anmeldemöglichkeit 🔗 https://www.digis-berlin.de/workshop-einfuehrung-in-und-ums-digitale-erschliessen-metadaten-i-am-24-03/

#KulturgutDigital #Metadaten

"Welche (ETL-)Tools nutzt ihr, z.B. um MARC-Daten in Solr einzuspielen?" fragt tillk & es gibt bereits ein paar Antworten: https://metadaten.community/t/welche-etl-tools-nutzt-ihr-z-b-um-marc-daten-in-solr-einzuspielen/1030

Vielleicht wird ja die eine oder der andere Metafacture für den Einsatz in der eigenen Einrichtung testen. Das würde uns freuen! Wir haben auf jeden Fall in den letzten Jahren einige Liebe in die Software gesteckt. Mit der Fix-Sprache und dem Metafacture-Playground ist es jenseits der IT auch für Fachabteilungen attraktiver geworden. #metadaten #etl

Welche (ETL-)Tools nutzt ihr, z.B. um MARC-Daten in Solr einzuspielen?

Hallo, was verwendet ihr denn so, um Bibliotheksdaten in Solr (oder auch andere Suchmaschinen/Datenbanken/…) zu importieren? Im weitesten Sinne also “ETL-Tools”? Und was sind die Erfahrungen damit? Wir nutzen seit vielen Jahren solrmarc, um (massenhaft) MARC-Daten in Solr-Indexe einzuspielen (konkret: Daten aus dem GBV/SWB-CBS nach K10plus-Zentral), allerdings immer noch die reichlich veraltete Version solrmarc 2. Das muss nun endlich abgelöst werden. Naheliegend ist natürlich der Umstieg auf...

metadaten.community