stefan

@stk@chaos.social
1.5K Followers
304 Following
14.3K Posts
langsam so richtig hier.
bloghttps://stefan.bloggt.es

Der glaubwuerdigste Take von _all_ den Takes zu dieser… absurden Parade in Washington dieser Tage ist ja, dass fast alle der Beteiligten dabei maliciously compliant waren und einfach nur ne Shitshow abgeliefert haben mit Absicht und Vorsatz.

Den ganzen Formaldienstscheiss hab ich nie beim Militär gelernt. Aber trotzdem ist das _so_ tief in mir drin, dass ich anner Ampel _nicht_ mit links im Takt loslaufen kann, wenn ich Musik höre dabei.

_So_ ohne Tritt laufen: Das geht nur absichtlich!

@janmartinkeil oh, sehr gute Beobachtung! Rank oder Distinct waeren da evtl auch eine Option, und sei es nur zur Datenpflege!
@dzu @kdkeller ja, total! Ich hab in den letzten Jahren so viele Datenprojekte erlebt, die entweder langsam vergammelt sind oder sehr, sehr langfristig die Energie derjenigen beansprucht haben, die das jeweilige Projekt am Leben gehalten haben.
Dieser Ansatz verändert aber das gesamte Spiel. Und ein paar Ecken weiter gedacht schließt das so _enorm_ viel auf, was mittelfristig einfach automagisch ginge, wenn die datenhaltenden Stellen in LOD denken würden!
@awinkler wie im Artikel beschrieben, das zieht sich durch alle die Shows der Klasse ^^
@janmartinkeil fixed, danke fuer den Hinweis!

@awinkler ein LLM kann einem beim Scraping, Erstellen von Abfragen etc sicher helfen. Ob aber 1 oder n Gaeste, ist bei der Modellierung eigentlich egal – und die Verlaesslichkeit bzw. der Determinismus bei der Abfrage kommt durch die Verwendung von symbolic AI.

LLMs koennen einen alternativen Zugang dazu bieten, fuer den man nicht so gut SPARQL koennen muss. Fuer die verlaessliche Abfrage selbst ist das aber nicht notwendig – und auch nicht hinreichend :)

@janmartinkeil ups, ich fürchte, da fehlt ein Link 😬 folgt!
Die Idee geht auf diesen Thread von Anfang Februar mit u.a. @dzu und @kdkeller zurück – danke euch nochmal für die Inspiration :) https://hostsharing.coop/@dzu/113947696243180669
Detlev Zundel (@dzu@hostsharing.coop)

Angehängt: 1 Bild Schöne Statistik zu Talkshows im #ÖRR via: https://bsky.app/profile/woutvanart.bsky.social/post/3lhcb2viygs2c

hostsharing.coop | Hostsharer im Fediverse

Wer war eigentlich wie oft bei Lanz? Eine weitere Ausgabe „schoener leben mit Linked (Open) Data“ und der Frage, wie häufig eigentlich welche Menschen in welcher Polittalkshow sitzen.

Das schoene: Linked Open Data kann uns diese Auskunft nicht nur deterministisch und verlässlich geben. Sondern hier zeigt sich auch wieder, dass _jeder_ Beitrag zu LOD praktisch alle anderen Beiträge auf viele Weisen stärkt. Selbst Projekte, an denen man die Lust verliert, leben so weiter

https://stefan.bloggt.es/2025/06/wer-war-wie-oft-bei-lanz-schoener-leben-mit-linked-data/

Wer war wie oft bei Lanz? – Schoener Leben mit Linked Data | stk

stk | schlampig sortiertes Zeug, das ich schon immer mal sagen wollte.

New study on the effects of LLM use (in this case on essay writing):

https://arxiv.org/abs/2506.08872

Quote:

"LLM users also struggled to accurately quote their own work. While LLMs offer immediate convenience, our findings highlight potential cognitive costs. Over four months, LLM users consistently underperformed at neural, linguistic, and behavioral levels. These results raise concerns about the long-term educational implications of LLM reliance and underscore the need for deeper inquiry into AI's role in learning."

The interesting thing is: People who used search engines (to find sources etc) did not show similar issues. This is an important antidote against the belief that LLM-based tools are just like search engines. Which they are not. They are massively degrading their users' mental abilities and development. Which is why these systems have absolutely no place even _near_ any school or university.

https://hails.org/@hailey/114691651497761523

Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task

This study explores the neural and behavioral consequences of LLM-assisted essay writing. Participants were divided into three groups: LLM, Search Engine, and Brain-only (no tools). Each completed three sessions under the same condition. In a fourth session, LLM users were reassigned to Brain-only group (LLM-to-Brain), and Brain-only users were reassigned to LLM condition (Brain-to-LLM). A total of 54 participants took part in Sessions 1-3, with 18 completing session 4. We used electroencephalography (EEG) to assess cognitive load during essay writing, and analyzed essays using NLP, as well as scoring essays with the help from human teachers and an AI judge. Across groups, NERs, n-gram patterns, and topic ontology showed within-group homogeneity. EEG revealed significant differences in brain connectivity: Brain-only participants exhibited the strongest, most distributed networks; Search Engine users showed moderate engagement; and LLM users displayed the weakest connectivity. Cognitive activity scaled down in relation to external tool use. In session 4, LLM-to-Brain participants showed reduced alpha and beta connectivity, indicating under-engagement. Brain-to-LLM users exhibited higher memory recall and activation of occipito-parietal and prefrontal areas, similar to Search Engine users. Self-reported ownership of essays was the lowest in the LLM group and the highest in the Brain-only group. LLM users also struggled to accurately quote their own work. While LLMs offer immediate convenience, our findings highlight potential cognitive costs. Over four months, LLM users consistently underperformed at neural, linguistic, and behavioral levels. These results raise concerns about the long-term educational implications of LLM reliance and underscore the need for deeper inquiry into AI's role in learning.

arXiv.org