Повторяй промт дважды — и нейросеть станет умнее. Это реально работает

Ещё раз: повторяй свой промт дважды (и даже трижды) — и нейросеть станет умнее. Это реально работает!

https://habr.com/ru/articles/1000918/

#google_research #reasoning_models #спекулятивный_декодинг #промптинжиниринг #промпты

Повторяй промт дважды — и нейросеть станет умнее. Это реально работает

Ещё раз: повторяй промт дважды — и нейросеть станет умнее. Это реально работает! Пример повторящегося промта со вставкой посередине Исследователи Google Яньив Левиатан, Матан Кальман и Йосси...

Хабр

[Перевод] Актуальные вопросы по ИИ и перспективным технологиям

Эксперты Gartner дают краткие ответы на свежие вопросы клиентов о перспективных технологиях. Фокус на принятии решений: когда инвестировать в агентный ИИ и DSLM, какие метрики измерять и как масштабировать без потери контроля.

https://habr.com/ru/articles/954788/

#ai #claude_sonnet_45 #genai #mcp #agentic_ai #llm #reasoning #reasoning_models #gpt5 #domain_model

Актуальные вопросы по ИИ и перспективным технологиям

Эксперты Gartner дают краткие ответы на свежие вопросы клиентов о перспективных технологиях. 1. Как реагировать на запуск модели Anthropic Claude Sonnet 4.5? Claude Sonnet 4.5 сигнализирует о...

Хабр

Облачные технологии в контексте агентских AI-систем

В настоящее время процветает разработка агентов — приложений на базе Generative AI, реализующих автономные рабочие процессы . Извлечение и анализ данных, управление детерминированными программами и так далее. Массу вещей можно автоматизировать с помощью LLM и вызова функций , отсюда и спрос на такие системы. Как и традиционное ПО, агенты обычно реализуют принцип разделения логики на специализированные узлы обработки конкретных задач , например, один парсит данные по определенной инструкции, другой их анализирует, третий формирует конечный результат. Необходимость применения такого подхода диктуется не только архитектурным принципом единой ответственности , который делает систему более предсказуемой, но и ограничениями самого ИИ . При попытке выполнить несколько задач вызовом одного промпта ограничивающим фактором является механизм внимания , который лучше справляется, если его не слишком перегружать вводными данными. А при использовании разных промптов для разных задач главное ограничение — в том, на сколько доменов модель успешно генерализуется без дообучения под каждый из них .

https://habr.com/ru/articles/949650/

#ai_агенты #generative_ai #llm #reasoning #reasoning_models #эмбеддинги

Облачные технологии в контексте агентских AI-систем

В настоящее время процветает разработка агентов — приложений на базе Generative AI, реализующих автономные рабочие процессы . Извлечение и анализ данных, управление детерминированными программами и...

Хабр

Универсальные подсказки по промптам (рассуждающие модели). Часть 4

Итак, продолжаем разбираться с промптами. Настало время познакомиться с рассуждающими моделями. Это те самые o3, o4-mini, o4-mini-hight, и GPT-5 thinking (вот угораздило меня растянуть резину аж до выхода GPT-5), DeepSeek R1 и т.д. которые вроде как думают перед ответом.

https://habr.com/ru/articles/937558/

#reasoning #reasoning_models #prompt #promptengineering #gpt #gpt5 #gpt4 #deepseek

Универсальные подсказки по промптам (Рассуждающие модели). (Часть 4)

Итак, продолжаем разбираться с промптами. Настало время познакомиться с рассуждающими моделями. Это те самые o3, o4-mini, o4-mini-hight, и GPT-5 thinking (вот угораздило меня растянуть резину аж до...

Хабр

Важность времени на размышления: как работают вычисления во время инференса

Еще в 2020 году в статье о GPT-3 появился график, заслуживающий отдельного внимания: чем больше языковые модели, тем лучше они справляются с задачами без дообучения (zero-shot). Пять лет этот график был путеводной звездой для исследователей ИИ, влияя на всё — от архитектуры моделей до разработки железа. C выпуском o1 OpenAI пришел с новым графиком. На этот раз речь не только о размере — а о том, чтобы дать моделям время думать .

https://habr.com/ru/companies/raft/articles/886680/

#reasoning_models #llmмодели

Важность времени на размышления: как работают вычисления во время инференса

Еще в 2020 году в статье о GPT-3 появился график, заслуживающий отдельного внимания: чем больше языковые модели, тем лучше они справляются с задачами без дообучения (zero-shot). Пять лет этот график...

Хабр

DeepSeek-R1 для чайников

В последние месяцы всё чаще слышим про «reasoning-модели», способные не просто продолжать текст, а действительно шаг за шагом решать сложнейшие задачи цепочкой рассуждений (chain-of-thought). Впервые такой подход эффектно показали в OpenAI o1, но, к сожалению, подробности там остаются секретными. Недавно же команда DeepSeek наделала шуму с открытыми вариантами R1 и R1-Zero , созданными поверх их собственной большой MoE-модели DeepSeek-V3 . В этом посте я не стану углубляться в вопрос «чья модель лучше — o1 или R1». Зато разберу, какие главные технические детали стоят за R1, почему Zero-версия выглядит особо захватывающе, и как именно авторам удалось обучить модель мыслить.

https://habr.com/ru/articles/879178/

#DeepSeek #chatgpt #llm #nlp #reasoning_models #rlhf

DeepSeek-R1 для чайников

В последние месяцы всё чаще слышим про «reasoning-модели», способные не просто продолжать текст, а действительно шаг за шагом решать сложнейшие задачи цепочкой рассуждений (chain-of-thought). Впервые...

Хабр

Думающие модели o1-3: краткий обзор и чего программистам ждать дальше

Когда LLM впервые появились, они были немного похожи на детей - говорили первое, что приходило им в голову, и не особо заботились о логике. Им нужно было напоминать: «Подумай, прежде чем отвечать». Многие утверждали, что из-за этого у моделей нет настоящего интеллекта и что их необходимо дополнять либо человеческой помощью, либо каким-то внешним каркасом поверх самой LLM, например Chain of Thought.

https://habr.com/ru/companies/raft/articles/873372/

#o1 #reasoning_models #llmмодели

Думающие модели o1-3: краткий обзор и чего программистам ждать дальше

Когда LLM впервые появились, они были немного похожи на детей - говорили первое, что приходило им в голову, и не особо заботились о логике. Им нужно было напоминать: «Подумай, прежде чем отвечать»....

Хабр