Holle Meding

@hmeding
43 Followers
34 Following
68 Posts

Digital Historian & PhD Candidate (Freie Universität Berlin)
Supported by the Gerda Henkel Foundation

Research: Large Language Models for social media data analysis & historical framing in film/TV reception

#DigitalHumanities #SocialMedia #Framing #LLM

Homepagehttps://www.lai.fu-berlin.de/homepages/meding/index.html

In meinem aktuellen Blogbeitrag stelle ich „Promptotyping“ vor – eine strukturierte Prompt-Engineering-Methode, bei der Anforderungen systematisch in Markdown-Dokumenten erfasst werden, um mithilfe von Frontier-LLMs rasch funktionierende Prototypen digitaler Anwendungen wie etwa Forschungstools zu entwickeln: https://dhcraft.org/excellence/blog/Promptotyping

Promptotyping ist inspiriert vom User-Centred Design und lässt sich vielleicht am besten als KI-gestütztes Requirements Engineering verstehen.

Promptotyping: Von der Idee zur Anwendung

Excellence, Promptotyping, DH Craft Blog, System Prompts

excellence

I'm hiring a PhD student in Copenhagen, Denmark to do #HCI research on #privacy and #interoperability in messaging apps!

This is a fully funded 3-year position in the Copenhagen campus of Aalborg University. The student will join my project "mInt" (for "messaging interoperability" ;)) and will be co-supervised by me and @nielsvanberkel .

More info and application form here: https://www.stillinger.aau.dk/phd-stillinger/vis-stilling/vacancyId/1219575. Deadline is May 18.

#hci #interoperability #messaging #dma #phd

PhD Stipend in Human-Computer Interaction Principles for Messaging Interoperability

The PhD position is supported by the project mInt:  Human-centered design principles for effective management of social boundaries in interoperable t...

Aalborg Universitet

🔔 UPDATE April 2025 🔔

79,708 full-text decisions (2000-2025) of the German Federal Court of Justice (BGH) now available as a comprehensive corpus ⬇️

✅ 36 variables
✅ Open Access
✅ Public Domain
✅ Format: PDF, TXT, CSV, GraphML

Download: https://doi.org/10.5281/zenodo.3942742

Documentation: https://zenodo.org/records/15153244/files/CE-BGH_2025-04-07_Codebook.pdf?download=1

#RStats Source Code: https://doi.org/10.5281/zenodo.4705864

#BGH #Rechtsstaaat #Zivilrecht #Strafrecht #Law #DigitalHumanities #OpenScience #OpenData #OpenSource #OpenAccess #LawFedi @rstats @politicalscience @histodons

Corpus der Entscheidungen des Bundesgerichtshofs (CE-BGH)

Überblick Das Corpus der Entscheidungen des Bundesgerichtshofs (CE-BGH) ist der bislang größte, frei verfügbare Datensatz von Entscheidungen des Bundesgerichtshofs. Er ist eine Zusammenstellung aller Entscheidungen ab 2000, die in der amtlichen Datenbank des Bundesgerichtshofs am jeweiligen Stichtag veröffentlicht waren. Bitte beachten Sie das beiliegende Codebook! Es enthält wichtige Informationen zur korrekten Nutzung des Datensatzes. Es hilft auch bei der Entscheidung, welche Variante für Sie am besten geeignet ist. In der Regel empfehle ich für quantitative Forschung die CSV-Dateien und für traditionelle Forschung die PDF-Sammlung. Für Praktiker:innen stelle ich zusätzlich nach Senat sortierte PDF-Sammlungen aller Leitsatzentscheidungen und aller Entscheidungen mit Namen (z.B. »Trabrennbahn«) zur Verfügung. Ab Version 2023-03-10 ist auch das Zitationsnetzwerk des BGH (Aktenzeichen, BGHZ und BGHSt) für die einfache Nutzung mit graphischer Software wie Gephi oder für die maschinelle Weiterverarbeitung als GraphML verfügbar. Das Zitationsnetzwerk enthält ca. 600.000 Zitate und ca. 100.000 Knoten (Aktenzeichen, BGHZ oder BGHSt). Die strafrechtlichen Entscheidungen des BGH von 1950 bis 1999 finden Sie im Datensatz Entscheidungen des Bundesgerichtshofs in Strafsachen aus dem 20. Jahrhundert (BGH-Strafsachen-20Jhd).   Aktualisierung Dieser Datensatz wird 1-2 mal im Jahr aktualisiert. Benachrichtigungen über neue und aktualisierte Datensätze veröffentliche ich immer zeitnah auf Mastodon unter @seanfobbe@fediscience.org   NEU in Version 2025-04-07 Vollständige Aktualisierung der Daten Überarbeitung der Dokumentation zu den Varianten des Datensatzes Expliziter R Package Version Lock für 2024-06-13 (CRAN Date) Überarbeitung des Dockerfiles Vereinfachung der Run-Skripte und stärkere Integration mit Docker Compose Vereinheitlichung der Berechnung kryptographischer Hashes /tmp in Arbeitsspeicher ausgelagert Entfernung von exakten Prozentzahlen in den Frequenztabellen Entfernung der Tesseract System Library Entfernung der Nummerierung des Workflow-Diagramms   Features Insgesamt bis zu 36 Variablen in der CSV-Variante Fortlaufende Aktualisierung Urheberrechtsfreiheit Offene und plattformunabhängige Formate (PDF, TXT, CSV) Zitationsnetzwerk zwischen allen Aktenzeichen, BGHZ und BGHSt Verknüpfung mit PräsidentIn/Vize-PräsidentIn Linguistische Kennzahlen Umfangreiches Codebook Compilation Report um den Erstellungs-Prozess zu erläutern Dutzende Diagramme und Tabellen für alle Zwecke (im ZIP-Archiv 'ANALYSE') Diagramme liegen jeweils in einem für den Druck (PDF) und das Web (PNG) optimierten Format vor Tabellen sind im CSV-Format bereitgestellt und sind damit sowohl für Menschen als auch für Maschinen gut lesbar Kryptographische Signaturen Veröffentlichung des Source Codes   Eckdaten Stichtag: 7. April 2025 Inhaltlicher Umfang: 79.708 Entscheidungen Zeitlicher Umfang: 2000 bis 2025 Formate: PDF, TXT, CSV und GraphML   Source Code und Compilation Report Der gesamte Erstellungs-Prozess ist ab Version 2021-04-27 vollautomatisiert und detailliert dokumentiert. Mit jeder Kompilierung des vollständigen Datensatzes wird auch ein umfangreicher Compilation Report in einem attraktiv designten PDF-Format erstellt (ähnlich dem Codebook). Zudem werden Robustness Checks auf Vollständigkeit und Plausibilität durchgeführt und in einem separaten Bericht dokumentiert. Der Compilation Report enthält den Source Code für die Daten-Pipeline, dokumentiert relevante Rechenergebnisse, gibt sekundengenaue Zeitstempel an und ist mit einem klickbaren Inhaltsverzeichnis versehen. Wenn Sie sich für Details des Erstellungs-Prozesses interessieren, lesen Sie diesen bitte zuerst. Der vollständige Source Code, der Compilation Report und die Robustness Checks sind öffentlich einsehbar und dauerhaft erreichbar im wissenschaftlichen Archiv des CERN unter diesem Link hinterlegt: https://doi.org/10.5281/zenodo.4459415   Kryptographische Signaturen Die Integrität und Echtheit der einzelnen Archive des Datensatzes sind durch eine Zwei-Phasen-Signatur sichergestellt. In Phase I werden während der Kompilierung für jedes ZIP-Archiv, das Codebook und die Robustness Checks Hash-Werte in zwei verschiedenen Verfahren (SHA2-256 und SHA3-512) berechnet und in einer CSV-Datei dokumentiert. In Phase II werden diese CSV-Datei und der Compilation Report mit meinem persönlichen geheimen GPG-Schlüssel signiert. Dieses Verfahren stellt sicher, dass die Kompilierung von jedermann durchgeführt werden kann, insbesondere im Rahmen von Replikationen, die persönliche Gewähr für Ergebnisse aber dennoch vorhanden ist. Die während der Kompilierung des Datensatzes erstellte CSV-Datei mit den Hash-Prüfsummen ist mit meiner persönlichen GPG-Signatur versehen. Der mit dieser Version korrespondierende Public Key ist sowohl mit dem Datensatz als auch mit dem Source Code hinterlegt. Er hat folgende Kenndaten: Name: Sean Fobbe (fobbe-data@posteo.de) Fingerabdruck: FE6F B888 F0E5 656C 1D25 3B9A 50C4 1384 F44A 4E42   Kein Urheberrecht: Public Domain An den Entscheidungstexten und amtlichen Leitsätzen besteht gem. § 5 Abs. 1 UrhG kein Urheberrecht, da sie amtliche Werke sind. § 5 UrhG ist auf amtliche Datenbanken analog anzuwenden (BGH, Beschluss vom 28.09.2006 - I ZR 261/03, "Sächsischer Ausschreibungsdienst"). Alle eigenen Beiträge (z.B. durch Zusammenstellung und Anpassung der Metadaten) und damit den gesamten Datensatz stelle ich gemäß einer CC0 1.0 Universal Public Domain License vollständig urheberrechtsfrei.   Disclaimer Dieser Datensatz ist eine private wissenschaftliche Initiative und steht in keiner Verbindung zu Behörden, Gerichten oder anderen amtlichen Stellen der Bundesrepublik Deutschland.   Weitere Open Access Veröffentlichungen (Fobbe) Website — www.seanfobbe.de Open Data  —  zenodo.org/communities/sean-fobbe-data/ Source Code  —  zenodo.org/communities/sean-fobbe-code/ Volltexte regulärer Publikationen  —  zenodo.org/communities/sean-fobbe-publications/   Kontakt Fehler gefunden? Anregungen? Melden Sie diese entweder im Issue Tracker auf Codeberg oder kontaktieren Sie mich über www.seanfobbe.de  

Zenodo

Wir freuen uns zu verkünden: Der HISTOCAT ist ab sofort verfügbar! 🥳 📚 🔍

Der Historical Insight and Skills Training Online Catalogue ist eine kuratierte Sammlung von Lehr- und Lernmaterialien für die Vermittlung von Datenkompetenzen in den historischen Disziplinen.

Entwickelt von unserer Task Area Data Literacy macht die Plattform relevante Open Educational Resources (OER) leicht zugänglich und durchsuchbar.

Hier geht's zum Katalog: https://histocat.uni-trier.de/#/

@esciences

#HISTOCAT #4Memory

4Memory-HISTOCAT

Advancing Open Science: DataCite’s Global Access Fund supports Universidad Autónoma de Zacatecas in developing an Open Science Manual for Latin America. Learn how workshops & collaborations lead to best practices in #persistentIdentifiers, #metadata & #openscience: https://doi.org/10.5438/3c0s-3897
@gabioshka
Advancing Research Through DataCite’s Global Access Fund: Universidad Autónoma de Zacatecas, Mexico - DataCite

In 2024, thanks to the DataCite Global Access Fund, the Autonomous University of Zacatecas (Mexico) developed a project to promote open science. In this blog, we tell you about the development of the project and its results.

DataCite

Call for Bursaries: DH2025 

To encourage new contributions to scholarship in the digital humanities, the Alliance of Digital Humanities Organizations (ADHO) offers travel bursaries to students and early career scholars whose submissions have been accepted for presentation at DH2025. 

If you want to be considered for ADHO’s Conference Bursary Awards for DH2025, please complete and submit this form by April 14, 2025. You will also need to upload a one-page CV along with your accepted submission. Note that in order to open and complete the application form, you must be logged into a Google account.

For more information about the award and terms, please visit the information page or contact Natasa Thoudam (nthoudam{at}iitj{dot}ac{dot}in), Keli Du (duk{at}uni-trier{dot}de), and Stefano Morella (veritas44{at}gmail{dot}com)

We cannot believe these 5 days are over 😭 The ‘Text as data’ #DHSpringSchool has reached its end, but the spring continues to blossom — and so do #DigitalHumanities 🌸🌸🌸

Forschende, die über kontroverse Themen sprechen, sind oft Anfeindungen ausgesetzt. The Royal Meteorological Society & Metoffice bieten mit ihrem Toolkit wertvolle Tipps für sichere & effektive Kommunikation mit Medien & auf Social Media.

#Wisskomm #Klimakommunikation #Scicomm

https://www.wissenschaftskommunikation.de/science-communication-opportunities-and-challenges-a-toolkit-for-scientists-84501/

Science Communication – opportunities and challenges: A toolkit for scientists

Forschende, die sich öffentlich zu gesellschaftlich umstrittenen Themen äußeren, werden häufig in Frage gestellt oder sogar angefeindet. The Royal Meteorological Society und der meteorologische Service Met Office geben Tipps für heikle Kommunikation mit Journalist*innen und auf Sozialen Medien. Besonders Klimaforschende werden häufig angefeindet, wenn sie über ihre Forschung sprechen. Um diesem Problem zu begegnen, haben […]

Wissenschaftskommunikation.de

The European Association for Digital Humanities #EADH has joined the fediverse!
https://mastodon.social/@EADHorg

UPDATE:
#EADH seems to have moved to
@eadh

Tracing Chemical Knowledge Over Centuries with #LLMs 🧪

Diego Alves, Sergei Bagdasarov & Badr M. Abdullah prompted models to generate structured metadata for 47k+ texts from the #RoyalSociety Corpus (1665–1996), enabling large-scale comparison of #Chemistry and #Biology over time.

They tracked how chemical substances migrated between disciplines revealing a "chemicalization" of biology in the 19th century and a long-term trend toward standardization. #OpenScience #DiachronicAnalysis #NLP