Aus Liebe zur #Transparenz würde es mich ja freuen, eine solche Checkbox (wie bei den @MRMCD) auch künftig bei Konferenzeinreichungen in meinem Bereich #Bibliotheken, #OpenScience, #FDM, #OpenAccess zu sehen.

Am besten wird die Angabe, ob Referierende oder Workshophaltende KI-Werkzeuge eingesetzt haben, dann auch im Programm der #Konferenz öffentlich abgebildet. Wer stolz auf seine generierten KI-Inhalte ist, soll es gerne zeigen und Leuten wie mir würde es ersparen, unhöflicherweise mittendrin eine Session verlassen zu müssen. Win-Win, oder?

Die Krone ließe sich dem noch aufsetzen, indem von den Organisierenden für die Konferenz eine AI Policy veröffentlicht wird, die überhaupt mal definiert, was unter "KI" alles zu verstehen ist, was mit Training, Betrieb und Nutzung für Auswirkungen einhergehen und einhergegangen sind, in welchem Zusammenhang das abzulehnen oder zu befürworten ist etc.

Thank you for your attention and thank you for thinking!

#KI #GenerativeKI #ChatGPT #swib25 #vBIB25 #BiblioCon26 #OAT25 #ESciTage #OSfestival2025 #OSC2025 #WissKon25 #fwk25 #WissKomm #Konferenzen
@nb ich habe heute einen Hinweis auf dieses Tool gesehen, das mir dafür nützlich vorkommt: https://panbibliotekar.github.io/gaidet-declaration/
GAIDeT Declaration Generator

@osfestival2025
Danke, war mir noch nicht bekannt. Hilft mE nur bedingt, weil es sich nur auf LLMs bezieht und auch nicht für sich alleine stehen kann (Erläuterung siehe weiter unten).

Wenn man ein solches Formular erweitert, um die anderen Formen von generativer KI und alle anderen Formen von nicht-generativer KI, dann wäre das sicher im Sinne von Transparenz hilfreich. Leichte Anpassungen auf Konferenzeinreichungen bräuchte es vermutlich auch noch.

Dennoch frage ich mich dann weiter, was ein solcher Detailgrad konkret im Konferenzprogramm oder bei der Konferenzeinreichung bewirken würde. In das Programm kann natürlich jede*r von den Konferenzbesuchenden reinschauen und sich dann subjektiv für oder gegen einen Beitrag entscheiden. Ein Beispiel aus Teilnehmendensicht: "Referent*in X hat DeepL für das Übersetzen eingesetzt, das ist ok, und es ist nur halb so schlimm, wenn der Abstract für die Einreichung von they mit ChatGPT-99 generiert wurde, solange der Beitrag selbst nicht LLM-generiert ist. Aber zu Referentin Y gehe ich nicht, weil die verwendet KI-generierte Bilder und so was nervt mich. Ach und dann ist da Referent Z, der hat ja angegeben, dass er den Code für sein Forschungsprojekt mit Claude 42 generieren hat lassen, das wird schon passen, dem vertraue ich, weil der kennt sich aus."

Wenn ich persönlich jetzt Reviewer wäre, der aus ethischen Gründen die Nutzung von genKI in den meisten Fällen ablehnt, würde ich folgendernaßen über die Einreichungen der Referent*innen X, Y und Z entscheiden: X würde ich vorschlagen, dass they ihren Abstract selbst schreiben soll und dann annehmen, ansonsten ablehnen.
Y und Z würde ich beide sofort ablehnen. Das würde ich dann natürlich alles begründen, aber darum geht es mir gerade nicht: Ich werde ja nicht die einzige reviewende Person sein, und nicht die einzige mit dem selben Standpunkt. Daher muss ich mich vorher mit den anderen Konferenzreviewenden und der -orga auf entsprechende Kriterien einigen, was an KI geht und was nicht, sonst ist es ja Willkür.

Deswegen denke ich, muss es auf die Ausarbeitung einer AI Policy für eine Konferenz hinaus laufen, sonst können keine klaren Entscheidungen bezüglich dem Akzeptieren oder Ablehnen von Einreichungen getroffen werden, egal wie detailliert ein Formular der KI-Tool-Nutzung sich auch gestaltet.

CC: @SemAntiKast