Ich bin froh über die Entscheidung meines Instituts, die Verwendung sogenannter KI-Tools in Studien- und Prüfungsleistungen vollständig zu verbieten. Keine „Prompt-Kompetenz“, kein „Man muss die KI nur *richtig* einsetzen“, kein „Wir können uns dem nicht verschließen“, sondern die einfache Erkenntnis, dass „KI“ das Gegenteil von dem ist, was unsere Studierenden lernen sollen. https://www.geisteswissenschaften.fu-berlin.de/we06/lehre_und_studium/Studium/Hinweise-zu-Hausarbeiten-und-Pruefungsleistungen/index.html
Hinweise zu Hausarbeiten und Prüfungsleistungen

Ich bin auch stolz auf meine Kolleg_innen, die sich von dem Hype, der auch die Universitäten (inklusive unserer) erfasst hat, zu Nichts hinreißen lassen haben. Stattdessen haben wir das lange und gründlich diskutiert, und die Grundsatzentscheidung gegen KI ist dann institutsweit (Professor_innen und Mittelbau) mit nur einer einzigen Gegenstimme gefallen.
Tatsächlich sind wir uns im Zuge der Diskussion einig geworden, dass „generative KI“ das Gegenteil von allem ist, wofür die Geisteswissenschaften stehen — und mit „wir“ meine ich tatsächlich Literatur-, Kultur- und Sprachwissenschaftler*innen. Wer eine Philologie studiert hat, weiß, wie selten eine solche Einigkeit ist... ChatGPT hat uns geholfen, uns auf unsere Gemeinsamkeiten zu besinnen — und da sagen alle, KI hätte keine positiven Auswirkungen!
@astefanowitsch wie soll das überprüft werden?
@stefan_hessbrueggen Durch andere Prüfungsformen (mündl. Prüfungen, Fachgespräche, Klausuren), durch Dokumentation von Zwischenschritten bei schriftlichen Arbeiten und durch sorgfältiges Lesen (ist ja nicht so, als ob wir den LLM-Output nicht von dem unterscheiden könnten, was Studierende selbst produzieren). Diese Probleme betreffen aber nicht speziell uns, sondern auch Institute, auch die, die den Einsatz von KI für bestimmte Zwecke zulassen.