@davsebamse @Privatfar Ja, det kræver i hvert fald en tilpasning af hvordan man bruger LLM. Vi er i gang med at udarbejde retningslinjer for brug af LLM i forbindelse med større opgaver, og hvis man skal opsummere dem kort, så er det et værktøj man kan bruge til research til at finde kilder med, samt noget man kan bruge til sokratisk dialog med sine tanker i planlægningsfasen.
Allerede nu ville jeg dog kunne uddele prompts til mine elever, som ville give dem konkret feedback på skriftlige afleveringer i engelsk (hvor den vurderer om krav til tragtindledning overholdes, om der er kohæsion og kohærens, om der er intern sammenhæng med kernesætning, uddybning og delkonklusion i analyseafsnit, samt om konklusionen er en fornuftig syntese og overbygning på analysen og i øvrigt hænger sammen med indledningen. Den kan i samme omgang fremhæve de mest almindeligt forekommende sproglige fejl.
Problemet med det er, at 1) fristelsen nok ville være for stor til ikke at køre prompten på et AI-genereret essay og massere det, til det lever op til kravene. I hvert fald ved de, der ikke allerede er erfarne essay-skrivere. Og 2) elever er typisk heller ikke interesserede i at høre fra en LLM. Den menneskelige relation betyder noget.
Men muligheden for selv at køre denne type prompts og manuelt udplukke og formulere på baggrund af en faglig vægtning, hvor man ser på LLMens output som en måde at bevare fokus - også efter den 12. aflevering på dagen - og et åbent sind (de bliver aldrig trætte, har ingen personbias og kan fremhæve positivt såvel som negativt) har potentiale til at løfte kvaliteten af feedback, så længe man bruger dem kritisk.