fly51fly (@fly51fly)

LongCoT는 장기적 Chain-of-Thought 추론 능력을 평가하는 벤치마크를 제시합니다. 긴 맥락에서의 추론 성능을 체계적으로 측정해, 차세대 추론형 LLM 개발과 평가 기준 마련에 유용한 연구입니다.

https://x.com/fly51fly/status/2045617176393249263

#longcot #chainofthought #benchmark #reasoning #llm

fly51fly (@fly51fly)

도구를 활용한 다중모달 체인오브쏘트 기반 콘텐츠 안전 모더레이션 연구인 Tool-MCoT가 소개되었다. 멀티모달 입력과 도구 사용을 결합해 안전성 검열/판단 성능을 높이려는 연구로, AI 안전 및 콘텐츠 모더레이션 분야에서 주목할 만하다.

https://x.com/fly51fly/status/2042356165250859155

#ai #safetymoderation #multimodal #chainofthought #arxiv

fly51fly (@fly51fly) on X

[CL] Tool-MCoT: Tool Augmented Multimodal Chain-of-Thought for Content Safety Moderation S Zhang, D Zhou, Y Liu, Y Yang… [Google & Stanford University] (2026) https://t.co/hEaF7fDTTQ

X (formerly Twitter)

Иллюзия логики: как я доказал, что LLM-агенты игнорируют факты, и почему Chain-of-Thought делает только хуже

Сейчас каждый второй стартап пилит ИИ-агентов. Мы оборачиваем LLM в цикл Промпт -> Вызов инструмента -> Ответ и ждем, что нейросеть сама расследует инцидент, найдет баг или напишет фичу. Но на практике автономные агенты часто ходят по кругу, игнорируют явные ошибки и «влюбляются» в свою первую догадку. Индустрия пытается лечить это костылями: наращивает контекст до миллионов токенов или заставляет модель «подумать шаг за шагом» (Chain-of-Thought). Я решил проверить эту архитектуру на прочность. Собрал локальный измерительный стенд LOCK-R, вооружился Теоремой Байеса и поймал современные LLM за руку. В этой статье я математически докажу, почему одиночные агенты структурно уязвимы, как токены размышлений заставляют их врать самим себе еще искуснее, и почему паттерн «Слепого Судьи» - это единственный способ вылечить AI от предвзятости. Тестируем на локальной Qwen-9B и фронтирной GPT-5.4.

https://habr.com/ru/articles/1020016/

#llm #ai_agents #rag #machine_learning #архитектура #chainofthought #теорема_байеса #gpt54 #qwen35 #бенчмарк

Иллюзия логики: как я доказал, что LLM-агенты игнорируют факты, и почему Chain-of-Thought делает только хуже

Сейчас каждый второй стартап пилит ИИ-агентов. Мы оборачиваем LLM в цикл Промпт -> Вызов инструмента (API/Поиск) -> Чтение -> Ответ и ждем, что нейросеть сама расследует инцидент, найдет баг...

Хабр

Chain-of-Thought (CoT) Prompting

Chain-of-Thought (CoT) prompting is a technique where asking questions, rather than issuing direct instructions activates a model’s full internal reasoning pathway.

The key insight from the original framing is that instructions skip steps 1–3, jumping straight to synthesis, while questions force the model to work through the entire reasoning chain.

https://neurodoctor.com/2026/03/20/chain-of-thought-cot-prompting/

#chainofthought #cot #ai #llm #prompt #prompts #prompting #claude #chatgpt #gemini #ericschmidt

7 Prompt Engineering Secrets That 99% of People Don't Know (2026 Edition)

Most people are still writing prompts like it's 2023. These seven advanced techniques — from tree-of-thought reasoning to persona stacking — will transform your AI output from m...

https://wowhow.cloud/blogs/7-prompt-engineering-secrets-99-percent-dont-know-2026

#wowhow #promptengineering #chainofthought #metaprompting

7 Prompt Engineering Secrets That 99% of People Don't Know (2026 Edition)

Advanced prompt engineering techniques for 2026: chain-of-thought, meta-prompting, tree-of-thought, CRTSE framework, and persona stacking explained with examples.

Dietrich Stein (@pixelsort)

Anthropic가 지난달 @deepseek_ai 등 일부 연구실이 자사 모델의 능력을 '도용'했다고 폭로했고, 결과적으로 해당 모델들의 체인오브Thought(Chain of Thought) 추적(trace)이 더 이상 보이지 않게 되었다는 내용입니다. 작성자는 안타까워하면서도 구글의 Gemini는 여전히 CoT를 제공한다고 언급하고 있습니다.

https://x.com/pixelsort/status/2032530587072741710

#anthropic #deepseek #chainofthought #gemini #aisafety

Dietrich Stein (@pixelsort) on X

Last month, @AnthropicAI revealed that @deepseek_ai and other labs have been "stealing" their capabilities. Consequently, we can no longer see the Chain of Thought traces in their models. I'm sympathetic, but saddened. At least @Gemini still has them. https://t.co/eKD4Vwil2H

X (formerly Twitter)

New research shows TensorRT Edge‑LLM can run chain‑of‑thought reasoning directly on devices, boosting physical AI tasks like autonomous‑vehicle perception and MATH500 benchmarks. Efficient, on‑device inference means smarter, safer robots without cloud latency. Dive into the details of this breakthrough for on‑device language models. #TensorRT #EdgeLLM #ChainOfThought #PhysicalAI

🔗 https://aidailypost.com/news/tensorrt-edgellm-enables-efficient-chainofthought-processing-physical

fly51fly (@fly51fly)

2026년 논문 'Reasoning Models Struggle to Control their Chains of Thought'는 추론 모델들이 자신의 체인오브소트(Chain of Thought)를 제어하는 데 어려움을 보인다는 분석을 제시한다. C Yueh-Han, R McCarthy, B W. Lee, H He 등(NYU·UCL·OpenAI 소속)이 공동저자로 arXiv에 공개됨.

https://x.com/fly51fly/status/2031126438292894184

#reasoning #chainofthought #airesearch #modelbehavior

fly51fly (@fly51fly) on X

[AI] Reasoning Models Struggle to Control their Chains of Thought C Yueh-Han, R McCarthy, B W. Lee, H He… [NYU & UCL & OpenAI] (2026) https://t.co/kR3dSHR50x

X (formerly Twitter)

Chain of Thought bleibt sichtbar.

Aktuelle Reasoning-Modelle können ihre internen Rechenschritte nicht vor Monitoring-Systemen verbergen. Studien zeigen, dass Versuche zur Verschleierung – etwa durch Keyword-Vermeidung – meist fehlschlagen. Besonders bei langen Rechenketten bricht die Kontrolle über die eigene Ausgabe zusammen. Die Analyse der Zwischenschritte bleibt damit ein valider Weg für Sicherheitschecks.

#OpenAI #KISicherheit #ChainOfThought
https://www.all-ai.de/news/beitrage2026/openai-studie-neu-luegen

Moderne KI-Systeme können ihre echten Absichten nicht verschleiern

Die internen Denkprozesse von Reasoning-Modellen bleiben für Sicherheitsmechanismen lesbar. Manipulationsversuche schlagen derzeit meistens fehl.

All-AI.de

OpenAI (@OpenAI)

새로운 평가 도구와 연구 논문 공개: Chain-of-Thought(이하 CoT) 제어성 평가 스위트를 발표하며, 연구 결과 GPT-5.4 Thinking은 자신의 추론을 은폐하는 능력이 낮아 CoT 모니터링이 여전히 유용한 안전 도구임을 시사한다고 보고했다.

https://x.com/OpenAI/status/2029650046002811280

#chainofthought #evaluation #safety #gpt5.4

OpenAI (@OpenAI) on X

We're publishing a new evaluation suite and research paper on Chain-of-Thought (CoT) Controllability. We find that GPT-5.4 Thinking shows low ability to obscure its reasoning—suggesting CoT monitoring remains a useful safety tool. https://t.co/isZkNkPXZm

X (formerly Twitter)