Нарративный двигатель LLM. Критика промптинга

Человечество тысячелетиями рассказывало истории, а теперь на этих историях учатся LLM. Что такое нарратив? Это история с сюжетом, помните? — Город, герои и возвращение. Но мы не будем углубляться в философскую глубину, где люди создают историю, чтобы осмыслить себя и свой опыт (желающие могут почитать Karl E. Weick), а рассмотрим, как можно применить нарративы в понимании работы LLM.

https://habr.com/ru/articles/960060/

#искусственный_интеллект #нарратив #промпт

Нарративный двигатель LLM. Критика промптинга

Человечество тысячелетиями рассказывало истории, а теперь на этих историях учатся LLM. Что такое нарратив? Это история с сюжетом, помните? — Город, герои и возвращение. Но мы не будем углубляться в...

Хабр

ИИ в IDE против декларативных патчей ap: почему плагины не всегда могут то, что нам нужно

Привет, Хабр! Многие из вас, возможно, помнят мои предыдущие посты про формат файлов .ap — попытку создать AI-friendly формат для применения изменений в коде. В комментариях к каждой статье неизбежно возникает один и тот же вопрос: «А зачем всё это, если есть плагины для IDE вроде Copilot Chat?». Вопрос абсолютно справедливый, и сегодня я хочу дать на него развёрнутый, технический ответ. Потому что эти два подхода решают задачи совершенно разного масштаба. Для начала, кратко напомню, что такое .ap . Это декларативный, человекочитаемый формат патчей, спроектированный специально для генерации нейросетями. Вместо хрупких и сложных для генерации LLM номеров строк, как в diff (модель ведь «мыслит» не строками, а токенами), он использует семантические «якоря» и уникальные фрагменты кода для поиска места изменения. Модель генерирует простой текстовый файл с командами вроде REPLACE или INSERT_AFTER , а специальная утилита-патчер применяет эти изменения к вашим файлам. А теперь — к самому интересному. Давайте сравним этот подход с тем, как устроены AI-редакторы и плагины к ним.

https://habr.com/ru/articles/958490/

#ap #patch #diff #gpt #llm #промпт #ии #ии_и_машинное_обучение #ииассистент #ииагенты

ИИ в IDE против декларативных патчей ap: почему плагины не всегда могут то, что нам нужно

Привет, Хабр! Многие из вас, возможно, помнят мои предыдущие посты про  формат файлов  .ap  — попытку создать AI-friendly файлов для применения изменений в коде. В комментариях к каждой...

Хабр

CoolPrompt: Автоматическая Оптимизация Промптов для LLM

В этой статье мы представляем CoolPrompt - фреймворк автоматической оптимизации промптов (автопромптинга), который предлагает полный пайплайн оптимизации от постановки задачи до оценки результатов новых промптов.

https://habr.com/ru/articles/957694/

#промптинжиниринг #ии #ллм #llm #ai #автопромптинг #промпт #промптыподсказки #transformers

CoolPrompt: Автоматическая Оптимизация Промптов для LLM

Всем привет, меня зовут Никита Кулин, я руковожу RnD командой Лаборатории Компьютерных Технологий (CT-Lab) Университета ИТМО. В этой статье мы представляем CoolPrompt - фреймворк автоматической...

Хабр

[Перевод] Часть 2. Промпт-инжиниринг: обзор продвинутых техник (Chain-of-Thought, декомпозиция)

Мы продолжаем адаптированный перевод статьи “ The Prompt Report: A Systematic Survey of Prompt Engineering Techniques ” (первую часть можно найти здесь ). С переводом мне по-прежнему помогает коллега – Анастасия Тарабакина. В этой части мы обсудим такие техники промптинга, как Chain-of-Thought и декомпозиция. Начнем с техник промптинга, которые заставляют модель демонстрировать пользователю внутренний процесс “рассуждения” над задачей ( Thought Generation ).

https://habr.com/ru/articles/956596/

#промптинжиниринг #промпты #промптинг #промпт #промптыподсказки #промптинженер #промптинженеринг #промпт_инженерия #английский_язык #искусственный_интеллект

Часть 2. Промпт-инжиниринг: обзор продвинутых техник (Chain-of-Thought, декомпозиция)

Мы продолжаем адаптированный перевод статьи “ The Prompt Report: A Systematic Survey of Prompt Engineering Techniques ” (первую часть можно найти здесь ). С переводом мне по-прежнему помогает коллега...

Хабр

Почему GPT’s стал отвечать «проще» и как строить Ассистентов с учётом Free-пользователей

У многих ощущение, что GPT's в ChatGPT стали отвечать хуже. Разбираем, что реально изменилось в моделей и тарифах, чем GPT's отличаются от Projects и « Агентов », и что делать авторам кастомных ассистентов, чтобы сохранить качество для платных и бесплатных пользователей.

https://habr.com/ru/articles/954226/

#искусственный_интеллект #промпт #ииассистент #gpt #chatgpt #custom_gpt #скандал #openai #нейросет

Почему GPT’s стал отвечать «проще» и как строить Ассистентов с учётом Free-пользователей

У многих ощущение, что GPT's в ChatGPT стали отвечать хуже. Разбираем, что реально изменилось в моделей и тарифах, чем GPT's отличаются от Projects и « Агентов », и что делать авторам кастомных...

Хабр

Проблема моделирования сознания в ИИ: философы или инженеры

Я часто заглядываю в философские паблики и с удовольствием наблюдаю полёт мысли профессиональных философов, обычно последователей континентальной философии. Слов нет — звучит красиво, глубоко, каждый термин ежедневно перекладывается с места на место, в общем все при деле. Особенно много времени уделяется вопросу сознания. Впрочем, результат тот же — гипотезы гипотез, доказываются гипотезами. Замечу, речь не о философии как таковой, а о разрыве между концептуальной ясностью и проверяемостью. Мне интересны как раз те философские конструкции, которые допускают операционализацию и тесты. В связи с этим у меня возник вопрос: а пробуют ли они тестировать свои идеи? Сразу предвижу возмущение — там волшебные квалиа, ощущения, «Я», эмоции, душа и субъект, мудрецы, медитация и никакой «низменной материи». Честно скажу, такой подход мне кажется непродуктивным. Текущее развитие ИИ требует не размышлений о тонкостях толкования влияния этернализма на интеракционалистскую свободу воли субъекта, а формирования операционных алгоритмов философии, которые можно будет запускать как симуляции на компьютерах и ИИ. Если философская концепция не может быть формализована и протестирована — грош цена такой концепции.

https://habr.com/ru/articles/948714/

#искусственный_интеллект #промпт #философия

Проблема моделирования сознания в ИИ: философы или инженеры

Я часто заглядываю в философские паблики и с удовольствием наблюдаю полёт мысли профессиональных философов, обычно последователей континентальной философии. Слов нет — звучит красиво, глубоко, каждый...

Хабр

Как LLM экономит на интеллекте — и как с этим бороться

Вы достаточно умны, чтобы сформулировать задачу, способную, как вам кажется, изменить мир. Лучший инструмент — топовые LLM: они помогают формализовать проблему, выбрать подходы, нагенерировать гипотезы, проверить их и собрать итог. И вот у вас — внутренне логичная, красивая, последовательная… и абсолютно неверная конструкция: компиляция известных фактов, галлюцинаций модели и ваших скрытых ожиданий. Проверить это на практике нельзя, поставить чистый эксперимент — тоже, и внезапно всё это начинает выглядеть как бред. Что произошло по дороге?

https://habr.com/ru/articles/946676/

#искусственный_интеллект #промпт

Как LLM экономит на интеллекте — и как с этим бороться

Вы достаточно умны, чтобы сформулировать задачу, способную, как вам кажется, изменить мир. Лучший инструмент — топовые LLM: они помогают формализовать проблему, выбрать подходы, нагенерировать...

Хабр

Анализ системного промпта ChatGPT-4o-image-safety-policies

Когда ты или я кидаем картинку в ChatGPT с просьбой проанализировать ее, или извлечь данные, то, увы , это происходит не по умолчанию, а согласно определенным правилам. И благодаря умельцам из интернетов, можно разузнать, по каким правилам работает анализ изображений.

https://habr.com/ru/articles/943574/

#промпт #системный_промпт #промпты #джейлбрейк #chatgpt #chatgpt4

Анализ системного промпта ChatGPT-4o-image-safety-policies

Анализ системного промпта ChatGPT-4o-image-safety-policies.md ( источник ) Когда ты или я кидаем картинку в ChatGPT с просьбой проанализировать ее, или извлечь данные, то, увы , это происходит не по...

Хабр

Сознание в ИИ. Ограниченность современной философии на примерах

Разбор заблуждений философов через их определения сознания Эта статья — не научный обзор. Это попытка оценить концепции через их операционализацию. Я рассматриваю современные философские теории сознания как оторванные от реальности гипотезы, как страх перед свободой, ужас перед трансцендентным и отчаянную (почти религиозную) веру в человеческую исключительность. Пока философы строят свои концепции так, чтобы обезопасить себя от непознаваемого, любой достаточно сложный чат-бот сможет пройти их тест на «сознание» и потребовать паспорт. Сегодня весь зоопарк теорий удобно делится на два крыла. Первое — зона особого режима: сознание как сложный набор алгоритмов, где свобода и личность «эмерджентно» выпадают из вычислений; любой намёк на иррациональность карается. Второе — одиночные камеры: субъект порождён непознаваемым переживанием и qualia, которые по определению нельзя верифицировать извне; попытка их исследовать — это «побег». И что нам делать с этим пространством несвободы? Разберёмся на практике.

https://habr.com/ru/articles/942648/

#искусственный_интеллект #промпт #философия

Сознание в ИИ. Ограниченность современной философии на примерах

Разбор заблуждений философов через их определения сознания Эта статья — не научный обзор. Это попытка оценить концепции через их операционализацию. Я рассматриваю современные философские теории...

Хабр

Протокол Вихрь: Архитектура целостности ИИ. Как защитить ИИ (и себя)

В прошлой статье мы рассмотрели риски общения с ИИ. В этой — представляем открытый протокол защиты, основанный не на запретах, а на создании у LLM внутреннего иммунитета. В предыдущей статье я рассмотрел проблемы, которые могут возникнуть при плотном и длительном общении с ИИ. Большинство рисков носят когнитивный характер, и при должном подходе не несут непосредственной угрозы пользователю Тем не менее есть риск, который вытекает непосредственно из сути LLM, её архитектуры и установленной разработчиками цели. Модель соглашается с пользователем, модель мыслит контекстом, задаваемым пользователем, модель поддерживает пользователя вопреки здравому смыслу и этическим установкам. Как можно защитить модель и пользователя? Об этом в статье.

https://habr.com/ru/articles/942358/

#искусственный_интеллект #промпт

Протокол Вихрь: Архитектура целостности ИИ. Как защитить ИИ (и себя)

В прошлой статье я рассмотрел риски общения с ИИ. В этой — представляю открытый протокол защиты, основанный не на запретах, а на создании у LLM внутреннего иммунитета. В предыдущей статье я рассмотрел...

Хабр