Noch mehr Hintergründe dazu, wie #Datenanalyse und #Palantir die Grundrechte gefährden, hört ihr in diesem DLF-Beitrag:

https://www.deutschlandfunk.de/palantir-in-den-usa-ein-schreckensszenario-fuer-deutschland-100.html

Palantir als Machtwerkzeug: Was passiert, wenn Regierungen zu viel wissen?

Die US-Behörden nutzen Palantir-Software für harte ICE-Einsätze. In Deutschland löst sie neue Sorgen vor Überwachung und Grundrechtsverstößen aus.

Deutschlandfunk

OpenAlex 2026: Was die neuen Entwicklungen für uns als Bibliothek bedeuten

2021 wurde bekannt gegeben, dass der Microsoft Academic Graph nicht mehr weiterentwickelt wird.

OpenAlex trat an, die Lücke zu füllen, und entwickelte sich im Laufe der letzten Jahre zu einer ernstzunehmenden Alternative zu Zitationsdatenbanken wie Dimensions, Scopus oder Web of Science (siehe auch diesen früheren Blogbeitrag).

Auch in den letzten Monaten hat sich OpenAlex deutlich weiterentwickelt: neue technische Grundlagen, ein erweiterter Datenbestand, verbesserte Suchfunktionen und ein neues Nutzungsmodell. Für uns als Deutsche Zentralbibliothek für Technik und Naturwissenschaften sowie als Universitätsbibliothek sind das keine abstrakten Neuigkeiten – wir sind seit Sommer 2025 Mitglied bei OpenAlex (siehe Supporting Members hier) und gestalten aktiv mit, wie diese Infrastruktur für Forschung und Lehre genutzt werden kann.

Was OpenAlex heute kann – und warum das für uns relevant ist

OpenAlex verbindet Publikationen, Autor:innen, Institutionen, Fördermittel und Konzepte in einem offenen Forschungsgraphen. Der Datenbestand ist in letzter Zeit stark gewachsen auf eine Größe von aktuell etwa 450 Millionen Werken und deckt neben klassischen Verlagspublikationen zunehmend auch Preprints, Repositorieninhalte und graue Literatur ab. Für uns bedeutet das: Wir können die Publikationslandschaft unserer Universität – einschließlich des Open-Access-Outputs – besser im globalen Kontext verfolgen und sichtbar machen.

Verbesserte Suche: neue Möglichkeiten für Forschende und Studierende

Die Suchfunktion von OpenAlex wurde deutlich ausgebaut. Präzisere Schlagwortsuche, bessere Verarbeitung langer Suchstrings und erste semantische Ansätze machen die Plattform zu einem ernstzunehmenden Werkzeug – insbesondere für systematische Literaturrecherchen und thematische Explorationen. Wir begleiten diese Entwicklung aktiv: In unseren Beratungsangeboten (TIBgefragt) zeigen wir, wie OpenAlex sinnvoll neben den oben erwähnten klassischen Datenbanken eingesetzt werden kann. Interessiert? Buche gleich einen Termin bei unserer Fachreferentin hier.

Die bibliografische Datenbank OpenAlex

Fördermittel-Metadaten: Chancen für Reporting und Analyse

OpenAlex baut einen eigenen Datenzweig für Grants und Förderorganisationen auf. Für uns als Bibliothek eröffnet das konkrete Perspektiven: Publikationen lassen sich verlässlicher den zugehörigen Projekten zuordnen, Förderlandschaften werden transparenter. Wir prüfen derzeit, wie sich diese Daten ergänzend zu unseren CRIS- und Berichtssystemen nutzen lassen.

Affiliation Curation: Wir können aktiv mitgestalten

Besonders relevant für uns ist die geplante Affiliation Curation. OpenAlex entwickelt Werkzeuge, mit denen Institutionen ihre eigenen Zuordnungsdaten direkt pflegen können – also prüfen und korrigieren, ob Autor:innen und Publikationen korrekt mit unserer Institution verknüpft sind. Als Bibliothek, die bereits Repositorium, Publikationslisten und CRIS-Systeme betreut, sind wir gut aufgestellt, diesen Prozess zu koordinieren. Korrekte Affiliationsdaten in OpenAlex verbessern direkt die Qualität externer Analysen und Rankings, die auf diesen Daten aufbauen. Wir erwarten hier gezielte Onboarding-Angebote und freuen uns darauf, langfristig an der Datenqualität mitzuwirken

Unsere Mitgliedschaft – und was wir daraus machen

Mit der Unterzeichnung der Barcelona Declaration On Open Research Information hat die TIB erklärt, offene und nicht-kommerzielle wissenschaftliche Infrastrukturen zu fördern. Dies tun wir mit unserer Mitgliedschaft bei OpenAlex. Das neue Nutzungsmodell sieht API-Keys und nutzungsbasierte Kontingente vor; als Mitglied haben wir erweiterten Zugang und gestalten die Plattform mit. Neben der Affiliation Curation nutzen wir die Mitgliedschaft für weitere Projekte:

  • Bei GROBI (Graphische Observatorien für bibliometrische Analysen), das vom Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) gefördert wird, arbeiten wir gemeinsam mit Forschenden der Leibniz Universität Hannover an einfach nachnutzbaren Infrastrukturen für das bibliometrische Monitoring in verschiedenen Szenarien.
  • Im durch das niedersächsische Ministerium für Wissenschaft und Kultur im Rahmen von Hochschule digital Niedersachsen geförderten Projekt FIS Niedersachsen (Aufbau eines Netzwerkes und Services zu Forschungsinformationen (FIS)) entwickeln wir gemeinsam mit den niedersächsischen Hochschulen Strategien und Lösungen zur Kuratierung von Publikationsmetadaten – unter anderem durch die oben erwähnte Affiliations-Kuratierung.

Unsere nächsten Schritte

Wir möchten gemeinsam mit Forschenden, Lehrenden und Data Stewards ausloten, wie OpenAlex am sinnvollsten in bestehende Workflows eingebunden werden kann – von Publikationsmonitoring und Open-Access-Berichten über Datenanreicherungen im Repositorium bis hin zu automatisierten Analysen.

Haben Sie konkrete Ideen oder Bedarfe? Sprechen Sie uns an.

Weiterführende Ressourcen zu OpenAlex

Wer die Entwicklung von OpenAlex selbst verfolgen möchte, findet hier die wichtigsten Anlaufstellen:

  • Blog – Neuigkeiten, Feature-Ankündigungen und Hintergründe direkt vom OpenAlex-Team: blog.openalex.org
  • Webinare – regelmäßige Online-Veranstaltungen zu aktuellen Themen, mit Aufzeichnungen auf dem YouTube-Kanal: help.openalex.org – Webinars
  • Hilfe-Center – allgemeine Dokumentation zu Daten, Funktionen und Nutzung: help.openalex.org
  • Technische Dokumentation/API – für alle, die OpenAlex programmatisch nutzen oder in eigene Systeme einbinden möchten: developers.openalex.org
#OpenAccess #LizenzCCBY40INT #OpenResearchInformation #Bibliometrie #fis #openalex #TIBgefragt #Datenanalyse #Literaturrecherche

#Desinformation durch #SPD #CDU #FDP in #SachsenAnhalt - Datenanalyse durch #Palantir doch nicht ausgeschlossen

Polizei darf Daten analysieren – Experten halten das für verfassungswidrig

"Palantir ist grundsätzlich per Gesetz nicht ausgeschlossen, sondern das Gesetz gibt vor, welche Systeme unter welchen Voraussetzungen benutzt werden können"

Übrigens, bald sind Wahlen in Sachsen-Anhalt. Die AfD liegt zZt bei 40% ...

https://www.mdr.de/nachrichten/sachsen-anhalt/polizei-daten-analyse-gesetz-kritik-100.html

#KI #Datenanalyse #Überwachungsextremismus #noafd

Polizei in Sachsen-Anhalt darf Daten analysieren – Experten halten das für verfassungswidrig

In Sachsen-Anhalt darf die Polizei jetzt Software für automatisierte Datenanalysen nutzen. Experten kritisieren, dass der Einsatz nicht kontrolliert wird und in Teilen verfassungswidrig ist.

MDR

#Steady #Klimacrew

Wie lassen sich #Wechselrichterdaten vom APsystems EZ1 lokal speichern?

Für statistische Auswertungen müssen alle Daten kontinuierlich gespeichert werden. Wie das mithilfe von #Python und Vibe Coding mit diesem #Wechselrichter funktioniert, erfahrt Ihr in diesem Artikel. Als smarter Datensammler im #WLAN-Netzwerk dient ein #Raspberry Pi 4.

https://tino-eberl.de/vibe-coding/ez1-spe-daten-lokal-speichern-python-skript-auf-raspberry-pi/

#Wechselrichter #RaspberryPi #PythonSkript #SmartHome #Datenanalyse #VibeCoding

EZ1-SPE Daten lokal speichern: Python-Skript auf Raspberry Pi (7/10)

Du willst Deine Wechselrichter-Daten lokal speichern und auswerten? So geht’s mit Raspberry Pi, Python und der EZ1-API!

Tino Eberl

#Steady-#Klimacrew

#Datenanalyse von #Stromspeicher​n: Falsche Diagrammwerte können auf Dubletten in den #Analysedaten zurückzuführen sein. So etwas kann beim Denormalisieren passieren. Je nach Diagrammzweck muss gegebenfalls eine Filterlogik angewendet werden. Das geht alles on-the-fly zur Laufzeit. Hier einige Beispiele.

https://tino-eberl.de/vibe-coding/stromspeicher-doublettencheck-in-den-analysedaten/

#Energiewende #Stromspeicher #Datenanalyse #PythonCoding #VibeCoding #OpenData #Datenbereinigung

Stromspeicher: Dublettencheck in den Analysedaten

Dubletten in Stromspeicher-Daten? So wurden sie mit gezieltem Python-Filtering in der Datenanalyse erkannt und behandelt.

Tino Eberl

#Steady-#Klimacrew

#Datenanalyse von #Stromspeicher​n: Wieso wirken manche #Diagramme blasser als andere? Wie korrigiere ich Missverständnisse in der #Fachspezifikation? Wer mit Vibe Coding arbeitet, kann genauso wie beim normalen #Prompting iterativ vorgehen. Schritt für Schritt stellt man Change Requests und verbessert den #Quellcode.

https://tino-eberl.de/vibe-coding/batteriespeicher-fehlersuche-mit-vibe-coding-in-python/

#Energiewende #Stromspeicher #Datenanalyse #Datenvisualisierung #PythonCoding #VibeCoding

Batteriespeicher: Fehlersuche mit Vibe Coding in Python

Warum deine Flächendiagramme blass aussehen – und wie du mit einem simplen Python-Parameter satte Farben bekommst.

Tino Eberl

#Steady-#Klimacrew

#Datenanalyse von #Stromspeicher​n: Warum weist das #Marktstammdatenregister für #Pumpspeicher eine doppelt so hohe Kapazität aus wie offizielle Quellen? Für diesen Widerspruch gibt es Erklärungen, nach denen man erst graben muss. Besonders bei #Pumpspeicherkraftwerke​n zeigt sich, wie wichtig Plausibilitätschecks sind.

https://tino-eberl.de/vibe-coding/pumpspeicher-woher-kommen-die-riesigen-speicherkapazitaeten-in-den-daten/

#Energiewende #Stromspeicher #Speicherkapazität #OpenData #PythonCoding #VibeCoding

Pumpspeicher: Woher kommen die riesigen Speicherkapazitäten in den Daten?

Warum zeigen die Daten der Marktstammdatenbank fast doppelt so hohe Kapazitäten bei Pumpspeichern? Eine Analyse mit überraschendem Ergebnis.

Tino Eberl

#Steady-#Klimacrew

#Datenanalyse von #Stromspeicher​n: Warum tauchten manche #Pumpspeicherkraftwerke in meiner Datenanalyse gar nicht auf, obwohl sie im #Marktstammdatenregister gelistet sind? Über diesem Mysterium musste ich doch etwas länger knobeln. Aber die Nuss wurde geknackt. 😊

https://tino-eberl.de/vibe-coding/stromspeicher-das-raetsel-um-die-pumpspeicherdaten/

#Energiewende #Pumpspeicher #Stromspeicher #OpenData #PythonCoding #VibeCoding

Stromspeicher: Das Rätsel um die Pumpspeicherdaten

Fehlerhafte Stromspeicher-Daten im Marktstammdatenregister? So wurde der Bug bei Pumpspeicherkraftwerken entdeckt und behoben.

Tino Eberl

#Steady-#Klimacrew

#Datenanalyse von #Stromspeicher​n: Wie kann man den Ausbautrend für #Batteriespeicher besser grafisch visualisieren? Nicht jede Zählart kann neue Inbetriebnahmen von #Batteriegroßspeichern gut darstellen. Kleinere Aggregationsintervalle entscheiden, ob man Entwicklungen besser erkennen kann. Hier seht Ihr Beispiele.

https://tino-eberl.de/vibe-coding/flaechendiagramme-neu-gedacht-grossspeicher-sichtbar-machen/

#Energiewende #Flächendiagramm #PythonCoding #VibeCoding #OpenData #Bundesnetzagentur #Marktstammdatenregister

Flächendiagramme neu gedacht: Großspeicher sichtbar machen

Diagramm zeigt nur Januar? Wie ein Achsenfehler den Zubau 2025 unvollständig machte – und was danach verbessert wurde.

Tino Eberl

#Steady-#Klimacrew

#Datenanalyse von #Stromspeicher​n: Wie lassen sich extreme Werteunterschiede grafisch sinnvoll darstellen? Was macht man, wenn eine lineare Skala ungeeignet erscheint? Bei der #Datenanalyse der #Batteriespeicher aus dem #Marktstammdatenregister musste ich manchmal zur logarithmischen Skala greifen. Der Unterschied kann sich sehen lassen.

https://tino-eberl.de/vibe-coding/batteriespeicherdiagramme-lineare-skala-vs-logarithmische-skala/

#Energiewende #Datenanalyse #VibeCoding #PythonCoding #Energiedaten #Bundesnetzagentur

Batteriespeicherdiagramme: Lineare Skala vs. logarithmische Skala

Warum eine logarithmische Skala bei Batteriespeicher-Diagrammen notwendig ist – und wie du das Problem in Python löst.

Tino Eberl