Computer Vision модель в борьбе с галлюцинациями LLM. Оправданный оверинжиниринг?

Проект PhotoMentor создавался как ИИ-ментор для фотографов. Механика простая: пользователь загружает снимок, а под капотом Gemini выступает в роли арт-директора — анализирует композицию, работу со светом, цветовую гармонию и выдает детальный фидбек с оценкой. С главной проблемой Vision-моделей я столкнулся в первый же день закрытых тестов. Я скормил Gemini свой тестовый снимок: крупный портрет собаки, положившей морду на лапы. Модель уверенно выдала:

https://habr.com/ru/articles/1007788/

#иимодель #фотография #computervision #yolo #gemini_ai #python #vibecoding #hallucinationsinai

Computer Vision модель в борьбе с галлюцинациями LLM. Оправданный оверинжиниринг?

Руб Голдберг XXI Проект PhotoMentor создавался как ИИ-ментор для фотографов. Механика простая: пользователь загружает снимок, а под капотом Gemini выступает в роли арт-директора: анализирует...

Хабр

Дрейф, потеря контекста и «уверенная чушь»: протокол восстановления SDX-S

LLM умеют многое, но иногда ломаются так, что виноватым выглядит пользователь: контекст уезжает, инструкции исчезают, инструмент падает, а модель продолжает говорить уверенно, как будто всё нормально. Мы смотрим на это не как на “плохой ответ”, а как на деградацию состояния диалога . Если не поймать момент, по цепочке шагов и становится всё убедительнее. Мы собрали процедуру SDX-S: триггеры → диагностика причины → восстановление → критерии возврата . Ниже: состояния, “дашборд” и два кейса, где это реально спасает.

https://habr.com/ru/articles/985334/

#сезон_ии_в_разработке #llmjs #chatgpt5 #prompt_engineering #guardrails #hallucinationsinai #observability #finite_state_machine #tool_use #reliability

Дрейф, потеря контекста и «уверенная чушь»: протокол восстановления SDX-S

Авторы Юрий Зеленцов, ака Ded_Egor, Ашер Гапети Если нечего удерживать, удерживать нечего! Ашер Гапети Введение LLM стали рабочим инструментом ровно в тот момент, когда ошибки начали стоить времени и...

Хабр

Как LLM выучивают факты и почему они галлюцинируют?

🔬 Почему языковые модели "знают" факты… и почему они врут? Новое исследование от Google DeepMind раскрывает секреты обучения LLM Вы когда-нибудь задумывались, как огромные языковые модели (LLM) превращают триллионы слов из интернета в четкие факты? И почему иногда они так уверенно выдают полную чушь? 🤔 В Google DeepMind решили покопаться в этой загадке и провели детальное исследование процессов, которые стоят за обучением моделей. Они взяли синтетические биографии шести вымышленных людей и наблюдали, как модель шаг за шагом переходит от хаотичного предсказания токенов к формированию точных ассоциаций — например, связывает имя человека с его датой рождения или профессией. 📈 А если интересно глубже... Узнайте, как распределение данных влияет на скорость обучения, какие стратегии учебной программы работают лучше всего и почему слишком частое повторение одних и тех же примеров может быть опасным. Исследуйте вместе с нами 🚀

https://habr.com/ru/articles/900354/

#LLM #AIResearch #MachineLearning #DeepMind #KnowledgeAcquisition #HallucinationsInAI

Как LLM выучивают факты и почему они галлюцинируют?

🔥 Не пропустите важные обновления и углубленные материалы! 🔥   Хотите быть в курсе самых свежих обзоров и исследований в мире ML и AI? Переходите по ссылкам ниже, чтобы получить доступ к...

Хабр