Analysis: AI models less creative than many people, even as a group

Those who value originality and creativity should continue to rely on humans, not AI chatbots. At least, that's what a new study suggests.

https://www.heise.de/en/news/Analysis-AI-models-less-creative-than-many-people-even-as-a-group-11255975.html?wt_mc=sm.red.ho.mastodon.mastodon.md_beitraege.md_beitraege&utm_source=mastodon

#Forschung #IT #KünstlicheIntelligenz #Sprachverarbeitung #Spracherkennung #Wissenschaft #news

Analysis: AI models less creative than many people, even as a group

Those who value originality and creativity should continue to rely on humans, not AI chatbots. At least, that's what a new study suggests.

heise online

Analyse: KI-Modelle auch als Gruppe weniger kreativ als viele Menschen

Wer auf Originalität und Kreativität Wert legt, sollte sich weiterhin an Menschen halten und nicht an KI-Chatbots. Das legt zumindest eine neue Studie nahe.

https://www.heise.de/news/Analyse-KI-Modelle-auch-als-Gruppe-weniger-kreativ-als-viele-Menschen-11255791.html?wt_mc=sm.red.ho.mastodon.mastodon.md_beitraege.md_beitraege&utm_source=mastodon

#Forschung #IT #KünstlicheIntelligenz #Sprachverarbeitung #Spracherkennung #Wissenschaft #news

Analyse: KI-Modelle auch als Gruppe weniger kreativ als viele Menschen

Wer auf Originalität und Kreativität Wert legt, sollte sich weiterhin an Menschen halten und nicht an KI-Chatbots. Das legt zumindest eine neue Studie nahe.

heise online

Surreale "Unterhaltungen", die es früher so nicht gegeben hätte:

"Oha, hallo, ein ID.4!"
"Was kann ich für Dich tun?"
"Du bist noch immer eine Drei, keine Vier!"
"Entschuldigung, das muss ich noch lernen."

#Spracherkennung #VolkswagenID3

heise+ | Kurz erklärt: Wie Weltmodelle datenbasierte Simulationen erstellen

Große Sprachmodelle tun sich schwer mit dem Verständnis und der Vorhersage physikalischer Prozesse. Die Antwort auf die Probleme der LLMs sind Weltmodelle.

https://www.heise.de/hintergrund/Kurz-erklaert-Wie-Weltmodelle-datenbasierte-Simulationen-erstellen-11221792.html?wt_mc=sm.red.ho.mastodon.mastodon.md_beitraege.md_beitraege&utm_source=mastodon

#IT #KünstlicheIntelligenz #Sprachverarbeitung #Spracherkennung #news

Kurz erklärt: Wie Weltmodelle datenbasierte Simulationen erstellen

Große Sprachmodelle tun sich schwer mit dem Verständnis und der Vorhersage physikalischer Prozesse. Die Antwort auf die Probleme der LLMs sind Weltmodelle.

iX Magazin

heise+ | OpenAI-API-Nachfolger: Open Responses im Überblick

Open Responses ist der Nachfolger der Chat-Completions-API von OpenAI, des Quasistandards bei der Kommunikation mit großen LLMs. Es gibt einige Änderungen.

https://www.heise.de/tests/OpenAI-API-Nachfolger-Open-Responses-im-Ueberblick-11225835.html?wt_mc=sm.red.ho.mastodon.mastodon.md_beitraege.md_beitraege&utm_source=mastodon

#API #IT #Sprachverarbeitung #Spracherkennung #news

OpenAI-API-Nachfolger: Open Responses im Überblick

Open Responses ist der Nachfolger der Chat-Completions-API von OpenAI, des Quasistandards bei der Kommunikation mit großen LLMs. Es gibt einige Änderungen.

iX Magazin

Unsere Spracherkennung zur Verarbeitung von Diktaten ist heute mal wieder on point 🤣

#spracherkennung #textverarbeitung #büroleben

TurboQuant: Google aims to curb the memory hunger of large LLMs

Google's TurboQuant reduces the KV cache of large language models to 3 bits. Accuracy is said to remain, speed to multiply.

https://www.heise.de/en/news/TurboQuant-Google-aims-to-curb-the-memory-hunger-of-large-LLMs-11225521.html?wt_mc=sm.red.ho.mastodon.mastodon.md_beitraege.md_beitraege&utm_source=mastodon

#Google #IT #KünstlicheIntelligenz #Sprachverarbeitung #Spracherkennung #news

TurboQuant: Google aims to curb the memory hunger of large LLMs

Google's TurboQuant reduces the KV cache of large language models to 3 bits. Accuracy is said to remain, speed to multiply.

heise online

TurboQuant: Google will den Speicherhunger großer LLMs bändigen

Googles TurboQuant drückt den KV-Cache großer Sprachmodelle auf 3 Bit. Die Genauigkeit soll bleiben, die Geschwindigkeit sich vervielfachen.

https://www.heise.de/news/TurboQuant-Google-will-den-Speicherhunger-grosser-LLMs-baendigen-11224445.html?wt_mc=sm.red.ho.mastodon.mastodon.md_beitraege.md_beitraege&utm_source=mastodon

#Google #IT #KünstlicheIntelligenz #Sprachverarbeitung #Spracherkennung #news

Google komprimiert LLM-Cache auf 3 Bit ohne Genauigkeitsverlust

Googles TurboQuant drückt den KV-Cache großer Sprachmodelle auf 3 Bit. Die Genauigkeit soll bleiben, die Geschwindigkeit sich vervielfachen.

heise online

Bit-Rauschen, der Prozessor-Podcast: Halbleiter für Weltraum-Missionen

Im Weltraum herrschen raue Bedingungen für Halbleiterchips, daher kommen besondere Typen zum Einsatz: Folge 2026/6 des Podcasts Bit-Rauschen.

https://www.heise.de/meinung/Bit-Rauschen-der-Prozessor-Podcast-Halbleiter-fuer-Weltraum-Missionen-11192054.html?wt_mc=sm.red.ho.mastodon.mastodon.md_beitraege.md_beitraege&utm_source=mastodon

#BitRauschen #IT #Journal #KünstlicheIntelligenz #Sprachverarbeitung #Podcast #Spracherkennung #news

Bit-Rauschen, der Prozessor-Podcast: Halbleiter für Weltraum-Missionen

Im Weltraum herrschen raue Bedingungen für Halbleiterchips, daher kommen besondere Typen zum Einsatz: Folge 2026/6 des Podcasts Bit-Rauschen.

c't Magazin

Sycophancy: Warum KI-Modelle ihren Nutzern nach dem Mund reden

Das Webinar beleuchtet ein unterschätztes Problem beim Einsatz von KI: Sycophancy, die Tendenz von KI-Modellen, gefällige statt korrekte Antworten zu liefern.

https://www.heise.de/news/Sycophancy-Warum-KI-Modelle-ihren-Nutzern-nach-dem-Mund-reden-11202216.html?wt_mc=sm.red.ho.mastodon.mastodon.md_beitraege.md_beitraege&utm_source=mastodon

#Spracherkennung #KünstlicheIntelligenz #Wissenschaft #news

Sycophancy: Warum KI-Modelle ihren Nutzern nach dem Mund reden

Das Webinar beleuchtet ein unterschätztes Problem beim Einsatz von KI: Sycophancy, die Tendenz von KI-Modellen, gefällige statt korrekte Antworten zu liefern.

heise online