#FediLZ #PhysikEdu #PhiloEdu
Ich habe es heute Morgen schon in einem Thread geschrieben, aber ich wollte es noch mal separat posten:
In einem LLM ist nicht irgendwo 'die Wahrheit' versteckt, die man mit einem geschickten Prompt herauskitzeln kann. Da ist keine Wahrheit, da ist auch kein Unsinn, da ist nur Text. Das Modell hat keine Ahnung, welcher Output korrekt oder sinnvoll ist. Es weiß nur, welche Wortkombinationen häufiger vorkommen.
Vielleicht ist es tröstlich, dass die Wahrheit offenbar häufiger vorkommt als die Lüge, weshalb ein gewisser Prozentsatz der Antworten stimmt – aber falsche Bezüge kommen mindestens genauso häufig vor wie richtige. Wenn es eine Wahrheit oder Sinnhaftigkeit im Output gibt, lesen wir Menschen die hinein.
Es macht auch keinen Sinn, ein LLM zu instruieren: 'Sag ruhig, wenn du es nicht weißt, und komm mir bloß nicht mit Vermutungen.'
Woher soll ChatGPT wissen, was eine Vermutung ist oder Bullshit und was stimmt? Es ist ein statistischer Wortgenerator. Irgendeine Antwort hat immer den höchsten Wahrscheinlichkeitswert. Und es gibt keinen definierten Grenzwert zwischen Wahrheit und Unsinn. Nur weil das Ding, wenn man es dazu auffordert, ab und an 'Ich weiß es nicht' ausspuckt (und damit sagt, was du hören willst), erhöht das nicht die Wahrscheinlichkeit, dass die Antworten, die es gibt, korrekt sind.
Aus diesem Grund ist es auch dringend zu empfehlen, LLMs zu meiden bei Themen, bei denen ich mich nicht auskenne. Wenn ich selbst zu den Fachleuten gehöre, kann ich die Spreu vom Weizen trennen. Dann kann es manchmal eine ganz nette Inspiration oder ein Shortcut sein, zu schauen, was ein LLM ausspuckt. Aber wenn ich nicht weiß, was Spreu ist und was Weizen, dann werde ich es von einem LLM nicht erfahren.
Heute findet in Radebeul das Science-on-Stage-Festival statt. Ich habe hier eine ganze Reihe wunderbarer Unterrichtsprojekte gesehen und nehme viele Anregungen für meine Praxis mit.
https://www.science-on-stage.de/festival2025
Ist das #FediLZ hier vertreten? Wenn nein; Ich kann diese und kommende Veranstaltungen für alle MINT-Interessierten nur empfehlen.
Ich finde es problematisch, wie öffentliche Gelder im Bildungsbereich an private Anbieter fließen. Unternehmen wie bettermarks GmbH bauen ihr Geschäft mit einer Förderungen des Bundes auf und vermarkten dann Produkte an Schulen.
Die Öffentlichkeit zahlt drei Mal: Unternehmen, Produkt (Lernaufgaben), Dienstleistung (Lehrkräfte im Unterricht)
Für die Fördersumme von 2022 könnten auch freie, quelloffene und digital zugängliche Lernmaterialien physikbuch.schule erstellt werden.
Wir haben Mastodon für unsere Familie eingerichtet. Wir nutzen Mastodon, um unseren Geschwistern, Eltern, Tanten, Großeltern Bilder aus unserem Familien-Alltag zu schicken. Das klappt gut und ich finde es viel besser, als irgendeinen US-Service zu verwenden.
https://rosetree.de/blog/2025/mastodon-familie/
An dieser Stelle: Danke @markus! Er ist unser Administrator und das Hosting läuft problemlos 👏
Wissenschaftler:innen haben herausgefunden: Wer ChatGPT oder andere Bullshit-Generatoren nutzt, verblödet innerhalb kurzer Zeit.

This study explores the neural and behavioral consequences of LLM-assisted essay writing. Participants were divided into three groups: LLM, Search Engine, and Brain-only (no tools). Each completed three sessions under the same condition. In a fourth session, LLM users were reassigned to Brain-only group (LLM-to-Brain), and Brain-only users were reassigned to LLM condition (Brain-to-LLM). A total of 54 participants took part in Sessions 1-3, with 18 completing session 4. We used electroencephalography (EEG) to assess cognitive load during essay writing, and analyzed essays using NLP, as well as scoring essays with the help from human teachers and an AI judge. Across groups, NERs, n-gram patterns, and topic ontology showed within-group homogeneity. EEG revealed significant differences in brain connectivity: Brain-only participants exhibited the strongest, most distributed networks; Search Engine users showed moderate engagement; and LLM users displayed the weakest connectivity. Cognitive activity scaled down in relation to external tool use. In session 4, LLM-to-Brain participants showed reduced alpha and beta connectivity, indicating under-engagement. Brain-to-LLM users exhibited higher memory recall and activation of occipito-parietal and prefrontal areas, similar to Search Engine users. Self-reported ownership of essays was the lowest in the LLM group and the highest in the Brain-only group. LLM users also struggled to accurately quote their own work. While LLMs offer immediate convenience, our findings highlight potential cognitive costs. Over four months, LLM users consistently underperformed at neural, linguistic, and behavioral levels. These results raise concerns about the long-term educational implications of LLM reliance and underscore the need for deeper inquiry into AI's role in learning.
In den vergangenen Wochen haben mehrere Kinder bekundet, sie wünschten sich im nächsten Schuljahr Physikunterricht von mir.
Anstatt meinen Lehrauftrag dahingehend anzupassen, darf meine Schulleitung nun erst mal entscheiden, ob ich oder eine andere Lehrkraft an eine Schule in einen entlegeneren Teil Sachsens abgeordnet werden.
Immerhin sind alle Orte in der Lausitz und im Erzgebirge durch den ÖPNV mit hinreichendem Aufwand und problemlos erreichbar. Ach, nee, Moment...