Na das kann ja zukünftig noch heiter werden.
Na das kann ja zukünftig noch heiter werden.
Bei uns an der Uni wird sowas routinemäßig nicht gemacht, aber in Verdachtsfällen scheinen einige Kollegen das so zu machen.
Es gibt da aber große Streuungen zwischen verschiedenen Tools, die die Wahrscheinlichkeit einschätzen, dass ein Text per LLM erzeugt wurde -- manche sind da extrem "trigger happy".
Gerade bei "einfachen" Aufgabestellungen, die sich mit Standardformulierungen behandeln lassen, würd mich garnicht wundern, wenn viele Antworten wie aus dem LLM aussehen.
Ich würd die Leute mal fragen, wieviele Tools übereinstimmend behaupten, der Text sei künstlich, und mit welcher Wahrscheinlichkeit.
Außerdem natürlich wichtig: Fehler einbauen würde zwar "helfen", aber kreativere Texte zu schreiben ebenso (und ist in der Regel auch git für die Note)