Na, da bin ich aber baff. Wer hätte damit auch gerechnet.
Ich kann das alles nicht mehr.
Na, da bin ich aber baff. Wer hätte damit auch gerechnet.
Ich kann das alles nicht mehr.
Hahaha … der erste Geschäftsführer im Nahfeld verbietet seinem Team die Nutzung von „KI”. Eine Überprüfung der gesetzten und erreichten Ziele habe ergeben, dass zu viel wertvolle Arbeitszeit mit den eingesetzten LLM verdaddelt wurde und damit nur oberflächliche Ergebnisse ohne die notwendige Tiefe erreicht wurden. Zudem sei keine stabile Wiederholbarkeit gegeben.
Ja guck … manch einer merkts ja doch recht flott.
AI-driven manipulation comes in three forms, each tested in our research:
• Deepfake videos
• AI-generated misinformation articles
• Personality-targeted political ads
We ran multiple preregistered experiments to see if warnings protect people.
Spoiler: They largely don't.
2/10
Gestern gelernt
In Frankreich gibt es Karten, auf denen eingezeichnet ist, in welchen Regionen sich bei der Begrüßung wie oft geküsst wird. Ich finde, das solltet ihr wissen...
Bildquelle:
https://francaisdenosregions.com/2016/12/21/la-carte-des-bises/?amp=1
Jahrelang mussten wir uns anhören, dass es keine Regeln außer den Emissionshandel im Klimaschutz braucht, weil wenn der Emissionshandel erstmal da ist, regelt das der Markt.
Nun ist der Emissionshandel in seiner Wirkung im Markt angenommen, funktioniert und wer hätte das gedacht? Er soll weg.
🤦
RE: https://rheinhessen.social/@mainzer_brett/116022680556161681
Diesen Samstag! 🎉🤗🀄 #mainz #brettspieltreffen #brettspiele
People keep assuring me that LLMs writing code is a revolution, that as long as we maintain sound engineering practices and tight code review they're actually extruding code fit for purpose in a fraction of the time it would take a human.
And every damned time, every damned time any of that code surfaces, like Anthropic's flagship offering just did, somehow it's exactly the pile of steaming technical debt and fifteen year old Stack Overflow snippets we were assured your careful oversight made sure it isn't.
Can someone please explain this to me? Is everyone but you simply prompting it wrong?
It's a good thing programmers aren't susceptible to hubris in any way, or this would have been so much worse.