🧠 DeepSeek R1 costs 90% less than GPT-4, but here's the real insight:

The bottleneck isn't AI intelligence anymore - it's INPUT SPEED.

You can reason through complex workflows instantly, but still need to type prompts and format outputs.

Voice-to-action fixes this: "Analyze this report and email the summary in my style."

2026 prediction: Voice-first AI tools will outpace text-first ones.

#DeepSeekR1 #VoiceAI #ProductivityHacks #VoiceFirst

#EricJang argues that #AImodels can now genuinely think and code. Using #ClaudeCode, he demonstrates #automatedresearch workflows, traces reasoning’s evolution from #ChainofThought to #DeepSeekR1, and predicts massive demand for inference compute. #Codingagents will fundamentally transform #softwareengineering, #research, and #militarystrategy - “the rocks can think now.“​​​​​​​​​​​​​​​​ https://evjang.com/2026/02/04/rocks.html?eicker.news #tech #media #news
As Rocks May Think

You are viewing the mobile version of this page. This content is best viewed on a desktop.

Eric Jang

New research shows DeepSeek-R1 and QwQ-3 develop distinct personalities that boost chain-of-thought reasoning, hinting at a future where societies of thought among LLMs improve problem solving. Open-source enthusiasts, see how personality diversity reshapes AI reasoning! #DeepSeekR1 #QwQ32B #ChainOfThought #PersonalityDiversity

🔗 https://aidailypost.com/news/deepseekr1-qwq3-exhibit-competing-personalities-that-improve-reasoning

DeepSeek R1 im Faktencheck - AI Hype aus China?!

https://pallenberg.video/w/4efZ7TSnm6HfCyGiRVaZBH

DeepSeek R1 im Faktencheck - AI Hype aus China?!

PeerTube

Общество мыслей: совещание внутри LLM

DeepSeek-R1, QwQ-32B и OpenAI o1 показывают результаты, которые невозможно объяснить просто "более длинными рассуждениями". Исследователи из Google Research и University of Chicago обнаружили нечто неожиданное: внутри reasoning-моделей происходит не монолог, а настоящее совещание — симуляция многоперспективного диалога с конфликтами, дебатами и примирением. В статье разбираем: • Почему Chain-of-Thought недостаточен для сложных задач • Что такое Society of Thought и как модели воспроизводят коллективный интеллект • Четыре ключевых паттерна conversational dynamics (вопросы, смена перспектив, конфликт, примирение) • 12 социо-эмоциональных ролей по Bales' IPA, которые возникают в рассуждениях моделей • Diversity (разнообразие) перспектив и почему разнообразие точек зрения критично для accuracy (точности) • Результаты экспериментов: activation steering, RL-обучение и transfer effects Основной вывод: reasoning-модели спонтанно научились имитировать то, что философы и психологи описывали как природу мышления — внутренний диалог между разными голосами. И это работает лучше, чем линейное рассуждение.

https://habr.com/ru/articles/987758/

#LLM #reasoning #ChainofThought #DeepSeekR1 #QwQ32B #OpenAI_o1 #искусственный_интеллект #машинное_обучение #Society_of_Thought

Общество мыслей: совещание внутри LLM

Общество мыслей: совещание внутри LLM Вы наверняка слышали про Chain-of-Thought. "Пусть модель думает вслух, и она станет умнее" — звучит логично, правда? Добавляем "Let's think step by step" в...

Хабр

Gary Zhang (@GaryZhangVizard)

구글이 DeepSeekR1에서 내부 페르소나들로 분열해 어려운 문제를 토론하는 현상을 발견했다는 관찰입니다. 작성자는 이를 두고 "목소리를 듣는다(hearing voices)"가 이제 AI 기능이 되었다고 표현하며, 지능을 단일 연산이 아닌 고속 그룹 채팅으로 비유하고 있습니다. 해당 관찰은 모델 내부 구조와 집단적 사고 관련 연구·개발 시사점을 제공합니다.

https://x.com/GaryZhangVizard/status/2013649889410838920

#google #deepseekr1 #llm #ai #research

Gary Zhang (@GaryZhangVizard) on X

"Hearing voices" is now an AI feature. 🗣️ Google found DeepSeekR1 splits into internal personas to debate hard problems. Intelligence isn't just compute, it's a highspeed group chat. cc @sebkrier

X (formerly Twitter)

AI 추론 모델의 역설: 쉬운 문제엔 300토큰, 어려운 문제엔 더 적게

AI 추론 모델들이 쉬운 문제에 더 많이 생각하고 어려운 문제엔 덜 생각하는 역설적 행동을 보입니다. 연구팀이 제안한 '추론의 법칙'과 해결책을 소개합니다.

https://aisparkup.com/posts/7813