New research shows DeepSeek-R1 and QwQ-3 develop distinct personalities that boost chain-of-thought reasoning, hinting at a future where societies of thought among LLMs improve problem solving. Open-source enthusiasts, see how personality diversity reshapes AI reasoning! #DeepSeekR1 #QwQ32B #ChainOfThought #PersonalityDiversity

🔗 https://aidailypost.com/news/deepseekr1-qwq3-exhibit-competing-personalities-that-improve-reasoning

Общество мыслей: совещание внутри LLM

DeepSeek-R1, QwQ-32B и OpenAI o1 показывают результаты, которые невозможно объяснить просто "более длинными рассуждениями". Исследователи из Google Research и University of Chicago обнаружили нечто неожиданное: внутри reasoning-моделей происходит не монолог, а настоящее совещание — симуляция многоперспективного диалога с конфликтами, дебатами и примирением. В статье разбираем: • Почему Chain-of-Thought недостаточен для сложных задач • Что такое Society of Thought и как модели воспроизводят коллективный интеллект • Четыре ключевых паттерна conversational dynamics (вопросы, смена перспектив, конфликт, примирение) • 12 социо-эмоциональных ролей по Bales' IPA, которые возникают в рассуждениях моделей • Diversity (разнообразие) перспектив и почему разнообразие точек зрения критично для accuracy (точности) • Результаты экспериментов: activation steering, RL-обучение и transfer effects Основной вывод: reasoning-модели спонтанно научились имитировать то, что философы и психологи описывали как природу мышления — внутренний диалог между разными голосами. И это работает лучше, чем линейное рассуждение.

https://habr.com/ru/articles/987758/

#LLM #reasoning #ChainofThought #DeepSeekR1 #QwQ32B #OpenAI_o1 #искусственный_интеллект #машинное_обучение #Society_of_Thought

Общество мыслей: совещание внутри LLM

Общество мыслей: совещание внутри LLM Вы наверняка слышали про Chain-of-Thought. "Пусть модель думает вслух, и она станет умнее" — звучит логично, правда? Добавляем "Let's think step by step" в...

Хабр

¡Las tres mejores IA´s de video, texto y audio en local (y gratis)!

«Wan, QwQ 32B y DiffRhythm, tres modelos súper potentes con el que podrás exprimir al máximo las GPUs»

Vía: Dotcsv - Divulgación sobre Inteligencia Artificial

#Divulgación #Ciencia #Tecnología #Ingeniería #Programación #RedesNeuronales #Robótica #IA #InteligenciaArtificial #DOTCSV #CarlosSantanaVega #Wan #QwQ32B #DiffRhythm

https://www.youtube.com/watch?v=dvzH6LSCbU8

¡LAS 3 MEJORES IAs de VÍDEO, TEXTO y AUDIO en LOCAL! (y GRATIS)

YouTube

👀🤖 "Chinese tech giant unveils new DeepSeek rival - #Alibaba's QwQ-32B operates with 32 billion parameters compared to DeepSeek R1's 671 billion parameters - while rivalling its performance."

https://www.cnbc.com/2025/03/06/alibaba-shares-soar-after-chinese-tech-giant-unveils-deepseek-rival-qwq-32b.html

#QwQ32B #DeepSeek

Alibaba shares soar after Chinese tech giant unveils new DeepSeek rival

Chinese tech giant Alibaba said its latest AI reasoning model, QwQ-32B, "rivals cutting-edge reasoning model, e.g., DeepSeek-R1."

CNBC
QwQ-32B: Embracing the Power of Reinforcement Learning

QWEN CHAT Hugging Face ModelScope DEMO DISCORD Scaling Reinforcement Learning (RL) has the potential to enhance model performance beyond conventional pretraining and post-training methods. Recent studies have demonstrated that RL can significantly improve the reasoning capabilities of models. For instance, DeepSeek R1 has achieved state-of-the-art performance by integrating cold-start data and multi-stage training, enabling deep thinking and complex reasoning. Our research explores the scalability of Reinforcement Learning (RL) and its impact on enhancing the intelligence of large language models.

Qwen