Ich bin froh über die Entscheidung meines Instituts, die Verwendung sogenannter KI-Tools in Studien- und Prüfungsleistungen vollständig zu verbieten. Keine „Prompt-Kompetenz“, kein „Man muss die KI nur *richtig* einsetzen“, kein „Wir können uns dem nicht verschließen“, sondern die einfache Erkenntnis, dass „KI“ das Gegenteil von dem ist, was unsere Studierenden lernen sollen. https://www.geisteswissenschaften.fu-berlin.de/we06/lehre_und_studium/Studium/Hinweise-zu-Hausarbeiten-und-Pruefungsleistungen/index.html
Hinweise zu Hausarbeiten und Prüfungsleistungen

Ich bin auch stolz auf meine Kolleg_innen, die sich von dem Hype, der auch die Universitäten (inklusive unserer) erfasst hat, zu Nichts hinreißen lassen haben. Stattdessen haben wir das lange und gründlich diskutiert, und die Grundsatzentscheidung gegen KI ist dann institutsweit (Professor_innen und Mittelbau) mit nur einer einzigen Gegenstimme gefallen.
Tatsächlich sind wir uns im Zuge der Diskussion einig geworden, dass „generative KI“ das Gegenteil von allem ist, wofür die Geisteswissenschaften stehen — und mit „wir“ meine ich tatsächlich Literatur-, Kultur- und Sprachwissenschaftler*innen. Wer eine Philologie studiert hat, weiß, wie selten eine solche Einigkeit ist... ChatGPT hat uns geholfen, uns auf unsere Gemeinsamkeiten zu besinnen — und da sagen alle, KI hätte keine positiven Auswirkungen!
Weil im Thread mehrfach nach Möglichkeiten der Überprüfung gefragt wird (seht auch meine Antworten dort), hier ein wichtiger Gedanke: Es geht nicht vorrangig darum, Studierende im Nachhinein zu überführen, sondern darum, sie von vornherein davon abzuhalten, überhaupt „KI“ zu verwenden. Das geht manchmal mit sehr einfachen Mitteln:

@astefanowitsch Das setzt alles voraus, dass „die KI“ eine eigenständige zusätzliche Anwendung ist, die man explizit starten und benutzen muss. Oder dann eben nicht benutzen darf

Je mehr integriert wird, und nicht als Feature, sondern ständig im Hintergrund laufend, desto schwieriger. Mini-Beispiel: was machen mit der Literaturrechrche, wenn das Suchsystem der Hochschulbibliothek ein angepasstes LLM in die Keyword-Suche integriert? Wenn das Repositorium generierte Zusammenfassungen anbietet?

@CerstinMahlow In dem Beispiel geht es ja eher schon darum, die Studierenden vor diesen Technologien zu warnen und ihnen beizubringen, sie zu umgehen. Bei der Literaturrecherche muss man wieder stärker auf traditionelle Methoden der Erschließung setzen, oder sich eben durch den KI-generierten Ergebnis-Müll wühlen. Bei den Zusammenfassungen kann man den Studierenden wenigstens recht leicht zeigen, wie schlecht die sind und wie wenig Sinn es hat, sich auf sie zu verlassen.
@CerstinMahlow Wie unser Statement zeigt, ist die Recherche ja explizit einer der Bereiche, in denen wir die KI nicht erlauben, aber da kämpfen wir auch durchaus gegen die eigene Uni-Bibliothek, die eine KI in den Bibliothekskatalog integriert hat. Im Moment muss die wenigstens noch explizit aktiviert werden...
@astefanowitsch Ja, genau das meine ich: es ist einfach irgendwo drin, man kann dem nicht ausweichen
@CerstinMahlow Ich würde eher sagen: Es ist immer mehr Reflexion und Aufwand nötig, um dem auszuweichen, aber noch kann man es. Und man kann es um so besser, je mehr man an eigenen Fertigkeiten erwirbt — wer eine gute Zusammenfassung schreiben kann, erkennt, wie schlecht die KI-Zusammenfassungen sind, wer selbst in der Lage ist, relevante Literatur zu erschließen, erkennt, was für eine beliebige Zusammenstellung einem eine KI-gestützte Suche liefert, usw.