Проект как промпт, или как начать любить вайб-кодинг, не превращая его в источник хаоса?

Вас тоже завалили «навайбкоженными» пулл‑реквестами, которые приходится реджектить по несколько раз? Проблема не в ИИ, а в том, что ваш проект для нейросети — плохой промпт. Пока одни спорят, заменит ли ИИ разработчиков, а другие ждут, когда этот «пузырь» лопнет, мы сталкиваемся с реальностью: сгенерированный код деградирует из‑за отсутствия контекста и правил. В статье поговорим о том почему линтеры и тесты важнее тысячи промптов, и как инженерная культура превращает хаос в ускорение. Разобраться с хаосом

https://habr.com/ru/articles/971932/

#Вайбкодинг #Промптинжиниринг #AIкодинг #LLM_в_разработке #проект_как_промпт #AIfirst_development #vibecoding #инженерная_культура #AIинструменты_разработки #разработка_с_ИИ

Проект как промпт, или как начать любить вайб-кодинг, не превращая его в источник хаоса?

На текущий момент все еще есть люди, которые активно не используют нейросети в своих проектах, так же как существуют команды, продолжающие работать по-старому - полагаясь на опыт и ручные процессы,...

Хабр

Как я автоматизировал поиск работы, и мой бот случайно откликнулся моему шефу

Поиск работы в IT превратился в какой-то сюр. С одной стороны - HR, которые не читают резюме и фильтруют кандидатов по ключевикам. С другой - кандидаты, которые бомбят веерной рассылкой "здравствуйте, рассмотрите меня". Чтобы найти нормальный оффер, нужно тратить 2-3 часа в день на скроллинг ленты и написание сопроводительных, которые никто не откроет. Меня это достало. Я разработчик, я хочу писать код, а не играть в бюрократию. Поэтому я решил написать AI-агента, который заберет эту рутину на себя. Спойлер: он сработал слишком хорошо и чуть не устроил одному из пользователей увольнение. Ниже история о том, как мы за 3 дня собрали MVP, как боролись с галлюцинациями LLM и почему первый запуск принес нам седые волосы.

https://habr.com/ru/articles/970688/

#python #telegram_bot #llm #chatgpt #поиск_работы #автоматизация #карьера #petproject #aiагент #промптинжиниринг

Как я автоматизировал поиск работы, и мой бот случайно откликнулся моему шефу

Поиск работы в IT превратился в какой-то сюр. С одной стороны - HR, которые не читают резюме и фильтруют кандидатов по ключевикам. С другой - кандидаты, которые бомбят веерной рассылкой "здравствуйте,...

Хабр

AI против рутинной оценки чатов: как мы заменили ручную аналитику чатов LLM

Онлайн‑чат — одна из главных точек контакта клиента с банком. От того, каким будет диалог, зависит не только пользовательский опыт, но и ключевые показатели. Системная работа над качеством поддержки — реальный рычаг влияния на эффективность бизнеса. Необходимо регулярно оценивать диалоги: отмечать, где специалист справился хорошо, а где упустил важные моменты. Своевременная обратная связь даёт возможность поддерживать единый стандарт коммуникации на высоком уровне. В Точка Банк эту задачу решают диалог‑коучи — эксперты, которые оценивают чаты по множеству критериев и проводят подробные разборы на специальных встречах. Но при потоке в сотни обращений в день часть диалогов не попадает в разбор, а часть может оцениваться субъективно. Мы задались вопросом: можно ли сократить объём рутинной ручной работы и при этом сохранить — а возможно, и повысить — точность оценки? Гипотеза была простой: если использовать LLM для предварительной оценки чатов, то диалог‑коучи смогут работать только с отобранными, действительно показательными диалогами без необходимости просматривать весь массив вручную.

https://habr.com/ru/companies/tochka/articles/960790/

#llm #анализ_диалогов #клиентский_сервис #QA #промптинжиниринг

AI против рутинной оценки чатов: как мы заменили ручную аналитику чатов LLM

Онлайн‑чат — одна из главных точек контакта клиента с банком. От того, каким будет диалог, зависит не только пользовательский опыт, но и ключевые показатели. Системная...

Хабр

Почему LLM не волшебная таблетка: баланс между скоростью, качеством и достоверностью в NLP & LLM

Привет, Хабр! Меня зовут Лиза, я разработчик направления AI/ML/DS. Вместе с командой мы решаем задачи, связанные с обработкой текстовых данных. В работе с большими языковыми моделями и классическим NLP я постоянно ищу баланс между скоростью, качеством и достоверностью — и в этой статье поделюсь нашими кейсами и практическим опытом, который помогает создавать надёжные и эффективные решения в условиях быстро меняющегося мира нейросетей. Обычный рабочий день: заварил кофе, созвонов нет, можно и поработать. Заходишь в Jira, а там новая таска. Срок исполнения — вчера. Данные в хаосе, от прямых ответов на вопросы про данные заказчик уклоняется. И тут возникает соблазн — отдать всё LLM-ке. Пишем промпт, слёзно просим несколько производственных видеокарт и кидаем всё в LLM, она ж явно больше нас повидала. И простое программистское: докручиваем API-шку, пишем тесты, но счастье не случается. Где-то получаем значение, которого нет, где-то ответ с первого взгляда правильный, но если рассмотреть глубже - не подходит. Судорожно добавляем новые вводные в промпт, а результат в некоторых кейсах всё равно как в анекдоте: — Муж, купи батон хлеба, если будут яйца — возьми десяток. Муж возвращается из магазина с десятью батонами. — Ты зачем столько хлеба купил? — Так ведь яйца были... Кажется, закончить рабочий день в обед не удастся. Давайте разбираться, как заставить решение работать и подтвердить это результатами теста заказчику. Что имеется: данные сложные, структуры и досконального понимания бизнес-процессов нет, а задачу решать критически нужно для бизнеса. В предметной области и данных разобраться придётся в любом случае.

https://habr.com/ru/articles/965162/

#llm #nlp #машинное_обучение #искусственный_интеллект #промптинжиниринг #сравнение_подходов #openai

Почему LLM не волшебная таблетка: баланс между скоростью, качеством и достоверностью в NLP & LLM

Привет, Хабр! Меня зовут Лиза, я разработчик направления AI/ML/DS. Вместе с командой мы решаем задачи, связанные с обработкой текстовых данных. В работе с большими языковыми моделями и классическим...

Хабр

LLM как нарративный поисковик

Предположение о том, что в основе работы LLM лежат нарративная функция и голографическая природа, можно подтвердить элементарными промптами. Когда вы задаете вопрос LLM, вы получаете не ответ на него, а наиболее вероятное и логичное, с точки зрения модели, продолжение вашего вопроса. LLM не понимает, чего вы хотите. Она получает историю на вход и отдает продолжение этой истории на выходе.

https://habr.com/ru/articles/963694/

#искусственный_интеллект #промптинжиниринг

LLM как нарративный поисковик

Предположение о том, что в основе работы LLM лежат нарративная функция и голографическая природа, можно подтвердить элементарными промптами. Когда вы задаете вопрос LLM, вы получаете не ответ на него,...

Хабр

Сама не разберётся: мои 7 принципов генерации кода с LLM

Всем привет! Меня зовут Виктор, и более трёх лет я работаю с языковыми моделями – от проприетарных решений вроде ChatGPT до open-source систем, которые можно разворачивать локально и встраивать в собственные продукты. Я застал времена жутких галлюцинаций GPT-3.5 и ждал обещанного GPT-5 – того самого почти AGI, которое, казалось, вот-вот появится. За это время многое изменилось: появились десятки моделей, которые можно запустить даже на слабом ноутбуке, и мощные коммерческие системы, способные понимать с полуслова. Но одно остаётся неизменным – AGI так и не случилось. Если два года назад нам уверенно обещали, что «всё уже близко», то теперь даже крупнейшие компании признают: ждать придётся долго . И это не плохо. Просто разработчикам, приходится учиться работать с тем, что есть, и извлекать максимум пользы из нынешних LLM. За годы работы с моделями я выработал ряд принципов, которые помогают получать стабильные и читаемые результаты. На первый взгляд – ничего нового: это те же инженерные практики, которые мы применяем в обычном программировании. Но в контексте LLM они начинают работать совсем иначе.

https://habr.com/ru/articles/963690/

#LLM #ии #ии_и_машинное_обучение #генерация_кода #промптинжиниринг #качество_кода

Сама не разберётся: мои 7 принципов генерации кода с LLM

Всем привет! Меня зовут Виктор, и более трёх лет я работаю с языковыми моделями – от проприетарных решений вроде ChatGPT до open-source систем, которые можно разворачивать локально и встраивать в...

Хабр

Делаем LLM-советника по акциям РФ как в Alfa Arena

Недавно стартовал необычный эксперимент — Alfa Arena , где шесть лучших LLM моделей (Claude 4.5 Sonnet, DeepSeek V3.1, Gemini 2.5 Pro, GPT-5, Grok 4 и Qwen 3 Max) соревнуются между собой в реальном трейдинге. Каждой модели дали по $10,000, и они торгуют криптой на бирже. Что особенно интересно — это не просто шоу. Alfa Arena показывает принципиально новый подход в трейдинге. И хоть любопытно следить за тем, какая модель заработает больше денег или кто первый сольет, но настоящая ценность эксперимента совсем в другом.

https://habr.com/ru/articles/962182/

#llm #трейдинг #промптинжиниринг #инвестиции #copilot

Делаем LLM-советника по акциям РФ как в Alfa Arena

Стартовал шоу-эксперимент Alfa Arena, где шесть LLM моделей (Claude, GPT, Gemini и компания) торгуют криптой на реальные деньги. Каждой дали по $10,000 и сказали: "Докажи, что ты умнее рынка". Сейчас...

Хабр

[Перевод] Обзор проблем и решений в ризонинговых LLM. Часть 3

В первой части мы рассмотрели ключевые проблемы логического рассуждения в LLM и показали, в чём именно модели ошибаются. Во второй части узнали, какие существуют методы решения LLM логических задач, а также посмотрели на их сильные и слабые стороны. В этой – мы обсудим, как модели иногда идут вразрез с собственной логикой и что эксперты предпринимают, чтобы это исправить.

https://habr.com/ru/articles/961828/

#ризонинг #языковые_модели #llmмодели #термины #arxivorg #ai #искусственный_интеллект #промптинжиниринг #nlp #nlp_обработка_текста

Обзор проблем и решений в ризонинговых LLM. Часть 3

В первой части мы рассмотрели ключевые проблемы логического рассуждения в LLM и показали, в чём именно модели ошибаются. Во второй части узнали, какие существуют методы решения LLM логических задач, а...

Хабр

[Перевод] Обзор проблем и решений в ризонинговых LLM. Часть 2

В первой части мы рассмотрели ключевые проблемы логического рассуждения в LLM и показали, в чём именно модели ошибаются. В этой – мы обсудим методы, с помощью которых LLM решают логические задачи, включая внешние решатели, подсказки и обучение на логических примерах, а также их сильные и слабые стороны. Читать о ризонинговых LLM

https://habr.com/ru/articles/961826/

#ризонинг #языковые_модели #llmмодели #исследование #термины #arxivorg #ai #искусственный_интеллект #промптинжиниринг #nlp_обработка_текста

Обзор проблем и решений в ризонинговых LLM. Часть 2

В первой части мы рассмотрели ключевые проблемы логического рассуждения в LLM и показали, в чём именно модели ошибаются. В этой – мы обсудим методы, с помощью которых LLM решают логические задачи,...

Хабр

ИИ замедляет разработчиков? Почему промты съедают столько же времени, сколько код, и что с этим делать

Я верил, что с приходом ИИ жизнь разработчика превратится в сказку. ИИ будет писать код, а я — придумывать фичи и строить продукт. В реальности я полдня пишу промты, а еще полдня трачу на правки за Copilot. Быстрее написать код самому. Почему промты занимают так много времени и как компании учат сотрудников использовать ИИ, чтобы он не портил никому жизнь — рассказываю в статье. Читать, как быть с промтами

https://habr.com/ru/companies/surfstudio/articles/961548/

#ииагенты_для_разработки #мобильная_разработка #промптинжиниринг #промпты #sdlc #автоматизация_рутины #автоматизация_процессов #copilot #качество_кода #вайбкодинг

ИИ замедляет разработчиков? Почему промты съедают столько же времени, сколько код, и что с этим делать

Я — Евгений Сатуров, CTO Mobile в Surf. Год назад я купил команде подписку на Copilot Business, и будущее наступило. Но совсем не то, что ожидали: ручные промты продолжали съедать время разработчиков,...

Хабр