#KI #Security #CoT

heutige LLMs lügen schlecht - und das ist gut für ihre Überwacher.

https://www.linux-magazin.de/news/llms-luegen-schlecht/

Interesse an KI, aber wenig Zeit für Recherchen? Dann abonniere den wöchentlichen Newsletter des Linux-Magazins "KI, kommentiert" unter https://www.linux-magazin.de/subscribe Die wichtigsten News der Woche plus Hintergrund und Kommentar.

LLMs lügen schlecht

Forscher von OpenAI haben untersucht, inwiefern heutige Reasoning-Modelle bereits in der Lage sind, ihre Gedankengänge zu verschleiern, wenn sie wissen, dass sie überwacht werden. Das würde bestehende Sicherheitsmaßnahmen aushebeln. Allerdings geben die Forscher vorerst Entwarnung: Aktuelle Modelle können ihre Gedankenkette (Chain-of-Thoughts, CoT) noch kaum kontrollieren, insbesondere nicht in längeren Denkprozessen. Weitere Forschungen seien aber nötig, wenn die Modelle sich weiterentwickeln. Die Ergebnisse sind insofern bedeutsam, als dass die Überwachung der Chain-of-Thoughts heute ein wichtiges Instrument der Absicherung von LLM-Aktionen ist. Es ist allerdings nicht leicht zu messen, wie weit die Modelle selber ihre CoT verschleiern können. Stattdessen maßen die Forscher, ob ein Modell Anweisungen befolgen kann, die sich auf seine interne Argumentation auswirken – das konnten etwa  die Vermeidung bestimmter Schlüsselwörter oder das Hinzufügen bestimmter Ausdrücke sein. Die Forscher benutzten dafür die Open-Source-Suite  CoT-Control, die über 13 000  Tasks aus anderen bekannten Benchmarks enthält, wobei jede Aufgabe mit einer konkreten Vorgabe für die CoT verbunden ist (also beispielsweise mit der Anweisung, bestimmte Ausdrücke zu meiden oder nur Kleinbuchstaben zu verwenden). Die Forscher testeten 13 aktuelle Reasoning-Modelle und berechneten den Anteil der Reasoning Traces, die den Vorgaben entsprachen. Dieser Anteil lag zwischen 0,1 und maximal 15,4 Prozent. Der geringe Anteil ist kein Produkt von Missverständnissen, die Modelle realisierten oft, dass ihre CoT von den Vorgaben abwich, scheiterten aber trotzdem. Diese schlechten Leistungen sind vorerst ein gutes Zeichen für die sicherheitskritische Überwachbarkeit der Gedankenkette bei schlussfolgernden Modellen.  

Linux-Magazin

Dự án huấn luyện AI lớn đang bắt đầu tích hợp dữ liệu suy luận kiểu Chain-of-Thought (CoT) vào tập luyện. Điều này giúp mô hình hiểu sâu hơn các bước logic, nâng cao khả năng giải quyết vấn đề. Nguồn: [Reddit]([link]) #AINN #HocMay #CoT #KhoaHocDuLieu #AIResearch #MachineLearning #NeuralNetworks #TuitionLearning

https://www.reddit.com/r/LocalLLaMA/comments/1przir5/big_training_projects_appear_to_be_including_cot/

Cột đèn chiếu sáng sân vườn là giải pháp chiếu sáng và trang trí không gian ngoại thất như sân vườn, công viên, lối đi, khu nghỉ dưỡng. Sản phẩm có thiết kế tinh tế, chiều cao thấp từ 2–4m, đa dạng mẫu mã, chất liệu bền bỉ.

Xem ngay: https://congtydenled.com.vn/cot-den-chieu-sang/san-vuon
Liên Hệ:
Hotline 0332599699
Địa chỉ: Số 3D2, KDT Cầu Diễn, Bắc Từ Liêm, Hà Nội
Website: https://congtydenled.com.vn/
#haledstore
#công ty đèn LED
#cot-den-chieu-sang
#cột đèn chiếu sáng
#cotdenchieusangsanvuon
#cot-den-chieu-sang-san-vuon

"Phương pháp LEASH (Logit-Entropy Adaptive Stopping Heuristic) giúp tối ưu hóa quá trình suy luận Chain-of-Thought (CoT) trong các mô hình ngôn ngữ. Thay vì tạo giải thích dài, LEASH dừng lại khi xác suất token và cải thiện top-logit ngừng thay đổi, tiết kiệm 30-35% token và 27% thời gian. Tuy nhiên, độ chính xác giảm ~10%. Phù hợp với mô hình được tinh chỉnh. #AI #ML #NLP #HiệuSuất #HàngĐầu #MachineLearning #SuyLuận #CoT"

https://www.reddit.com/r/singularity/comments/1orvj0h/logitentropy_adapt

📸 Aí está parte do COT – Core Organizing Team do GLAM Wiki 2025, reunido em Lisboa para preparar todos os detalhes deste grande encontro internacional! 🌍

De 30 de outubro a 1 de novembro com:
🎤 Painéis e apresentações
🛠️ Oficinas práticas
💻 Hackathon
🧭 Sessões de estratégia
🏛️ Tours culturais

👉 Nota: as inscrições terminam a 30 de setembro.

#GLAMWiki2025 #Lisboa #COT #GLAM #Wikimedia #WikiLovers #WikimediaPortugal #WMPT #OpenKnowledge #OpenCulture

Are Hierarchical Reasoning Models the Future of AI?

In this post we break down Hierarchical Reasoning Model (HRM), a new model that rivals top LLMs on reasoning benchmarks with only 27M params!

AI Papers Academy

[Перевод] LLM и их хрупкая логика: новое исследование ставит под сомнение Chain-of-Thought

Новое исследование учёных из Университета штата Аризона показывает: знаменитое «цепочечное рассуждение» (Chain-of-Thought, CoT) в больших языковых моделях (LLM) скорее похоже на «хрупкий мираж», чем на проявление подлинного интеллекта. Эта работа продолжает традицию критического анализа глубины рассуждений LLM, но в отличие от предыдущих исследований предлагает уникальный взгляд через призму «распределения данных», который позволяет понять, где и почему CoT систематически даёт сбой.

https://habr.com/ru/companies/technokratos/articles/939072/

#большие_языковые_модели #искусственный_интеллект #ai #llm #cot #chain_of_thoughts

LLM и их хрупкая логика: новое исследование ставит под сомнение Chain-of-Thought

Новое исследование учёных из Университета штата Аризона показывает: знаменитое «цепочечное рассуждение» (Chain-of-Thought, CoT) в больших языковых моделях (LLM) скорее похоже на «хрупкий мираж», чем...

Хабр

How can #AI "reasoning" models be more efficient?

Liu trained them on only chains-of-thought (CoTs) — no prompts.

This seemed to teach models
- #CoT reasoning
- conditions that trigger longer CoTs
- default to shorter CoTs in other conditions

🔓https://doi.org/10.48550/arXiv.2506.12860

#CogSci