GigaChat 3 Ultra от Сбера, OpenAI закрыла Sora, ARC-AGI-3 сломал все модели, ИИ-агенты взломали корпоративные системы

Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Неделя вышла насыщенной: OpenAI закрывает Sora, Сбер открывает свою MoE-модель, новые Suno v5.5 и Lyria 3 Pro. Исследование от Anthropic, обновления Claude и взлом корпоративной сети ИИ-агентами. Всё самое важное — в одном месте. Поехали! Читать дайджест →

https://habr.com/ru/companies/timeweb/articles/1016146/

#ии #дайджест #gigachat #openai #sora #anthropic #claude_code #новости #нейросети #timeweb_дайджест

GigaChat 3 Ultra от Сбера, OpenAI закрыла Sora, ARC-AGI-3 сломал все модели, ИИ-агенты взломали корпоративные системы

Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Я Вандер , и каждую неделю я обозреваю новости о нейросетях и...

Хабр

Россия — третий полюс мирового AI. Агентов запускаем на Raspberry Pi

a16z включил Россию в тройку AI-держав - наряду с Западом и Китаем. Яндекс Браузер в топ-10 мировых AI-приложений. GigaChat дебютировал в глобальном рейтинге. А потом смотришь на цифры изнутри - и видишь 48-е место, GPU-голод и агентов на Raspberry Pi.

https://habr.com/ru/articles/1015782/

#AI #Россия #суверенный_ИИ #GigaChat #YandexGPT #GPU #a16z

Россия — третий полюс мирового AI. Агентов запускаем на Raspberry Pi

a16z - один из крупнейших венчурных фондов планеты - выпустил свой ежегодный рейтинг Top 100 AI Apps. И впервые в истории зафиксировал Россию как отдельный полюс на глобальной AI-карте. Три полюса:...

Хабр

ГигаЧат стал умнее и быстрее! Встречайте GigaChat Ultra: нейросеть теперь обладает долгосрочной памятью, запоминает ваши интересы и работает вдвое эффективнее. Модель уже в открытом доступе и превосходит мировые аналоги в задачах на русском языке. Пробуйте прямо сейчас! 🚀

#GigaChat #нейрончик

GigaChat-3.1: Большое обновление больших моделей

В ноябре мы выложили в open source preview-версии GigaChat-3-Ultra (702B MoE) и GigaChat-3-Lightning (10B MoE). С тех пор мы провели большую работу над нашими моделями, и сегодня выпускаем обновлённые GigaChat-3.1-Ultra и GigaChat-3.1-Lightning. По нашим замерам, Ultra обходит non-reasoning Qwen3-235B-A22B и DeepSeek-V3-0324 в математике и general reasoning, а Lightning на аренах с судьёй GPT-4.1 играет на уровне GPT-4o — при 1,8 млрд активных параметров. Модели, как и раньше, лежат на HuggingFace и GitVerse под MIT. Но этот пост — не только про числа в таблицах. Переезд на новую архитектуру дался нам нелегко: переход от Dense-моделей к MoE вскрыл несколько проблем, о которых мы раньше не думали. По дороге к релизу мы полностью победили проблему зацикливания генераций (и придумали для этого метрику на основе BPE-сжатия хвоста), перевели DPO-этап в нативный FP8, получив качество выше bf16 при вдвое меньшем потреблении памяти, нашли критичный баг в SGLang при dp > 1, который роняет качество, и выяснили, что GPT-OSS-120b — неожиданно хорошая замена проприетарным судьям на аренах. Под катом — подробности о каждом из этих сюжетов: что ломалось, какие гипотезы не сработали, и что в итоге помогло.

https://habr.com/ru/companies/sberbank/articles/1014146/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1014146

#opensource #llm #gigachat #gigachat_31_ultra

GigaChat-3.1: Большое обновление больших моделей

Салют, хабр! В ноябре мы выложили в open source preview-версии GigaChat-3-Ultra (702B MoE) и GigaChat-3-Lightning (10B MoE). С тех пор мы провели большую работу над нашими моделями, и сегодня...

Хабр

GigaChat-3.1: Большое обновление больших моделей

В ноябре мы выложили в open source preview-версии GigaChat-3-Ultra (702B MoE) и GigaChat-3-Lightning (10B MoE). С тех пор мы провели большую работу над нашими моделями, и сегодня выпускаем обновлённые GigaChat-3.1-Ultra и GigaChat-3.1-Lightning. По нашим замерам, Ultra обходит non-reasoning Qwen3-235B-A22B и DeepSeek-V3-0324 в математике и general reasoning, а Lightning на аренах с судьёй GPT-4.1 играет на уровне GPT-4o — при 1,8 млрд активных параметров. Модели, как и раньше, лежат на HuggingFace и GitVerse под MIT. Но этот пост — не только про числа в таблицах. Переезд на новую архитектуру дался нам нелегко: переход от Dense-моделей к MoE вскрыл несколько проблем, о которых мы раньше не думали. По дороге к релизу мы полностью победили проблему зацикливания генераций (и придумали для этого метрику на основе BPE-сжатия хвоста), перевели DPO-этап в нативный FP8, получив качество выше bf16 при вдвое меньшем потреблении памяти, нашли критичный баг в SGLang при dp > 1, который роняет качество, и выяснили, что GPT-OSS-120b — неожиданно хорошая замена проприетарным судьям на аренах. Под катом — подробности о каждом из этих сюжетов: что ломалось, какие гипотезы не сработали, и что в итоге помогло.

https://habr.com/ru/companies/sberbank/articles/1014146/

#opensource #llm #gigachat #gigachat_31_ultra

GigaChat-3.1: Большое обновление больших моделей

Салют, хабр! В ноябре мы выложили в open source preview-версии GigaChat-3-Ultra (702B MoE) и GigaChat-3-Lightning (10B MoE). С тех пор мы провели большую работу над нашими моделями, и сегодня...

Хабр

Семантический поиск vs полнотекстовый: сравниваем три embedding-модели на 10 000 категорий Ozon

Сравнил полнотекстовый поиск PostgreSQL ( tsvector / tsquery + GIN-индекс) с семантическим поиском через pgvector ( cosine distance ) на датасете из 10 019 товарных категорий Ozon. Три embedding-модели: GigaChat EmbeddingsGigaR (Сбер, 2560-мерные векторы, API) Qwen3-Embedding-0.6B (Alibaba, 1024-мерные, локальный инференс через HF Text Embeddings Inference на GPU) text-embedding-3-small (OpenAI, 1536-мерные, API) Прогнал 18 запросов в пяти категориях: синонимы и сленг, intent-запросы в свободной форме, подарочная тематика, cross-lingual (EN-запросы к RU-данным), абстрактные формулировки. Замерил латентность и top-5 с cosine similarity score. Разбор каждого запроса, таблицы и код — под катом.

https://habr.com/ru/articles/1010200/

#искусственный_интеллект #gigachat #openai #qwen #embeddings

Семантический поиск vs полнотекстовый: сравниваем три embedding-модели на 10 000 категорий Ozon

1. Семантический поиск: поиск по смыслу Идея семантического поиска: представить и документы, и запрос в виде числовых векторов (embeddings) в едином пространстве. Близкие по смыслу тексты будут иметь...

Хабр

Перспективы национальной LLM. Личное мнение

Полностью самостоятельная разработка LLM дело дорогое, требующее высококвалифицированных кадров (математиков и инженеров), высокопроизводительного оборудования (графических ускорителей, быстрой памяти и процессоров), и, самое главное, наличие школы. Часто эффективные менеджеры недооценивают необходимость опыта в разработке и производстве чего-либо. Наличие желания и денег не всегда приводит к нужному результату. В этой статье я рассмотрю возможное развитие национальной LLM со своей точки зрения, которая, как вы понимаете, может быть ошибочной, либо меняться под давлением обстоятельств.

https://habr.com/ru/articles/1006896/

#искусственный_интеллект #gigachat #алиса #сбер #yandexgpt

Перспективы национальной LLM. Личное мнение

Полностью самостоятельная разработка LLM дело дорогое, требующее высококвалифицированных кадров (математиков и инженеров), высокопроизводительного оборудования (графических ускорителей, быстрой памяти...

Хабр

Как мы отслеживаем производительность веб-сервисов, или Дело «Скорости»

Салют, Хабр! Я Паша, вхожу в группу обеспечения производительности интерфейсов. Эту статью мы написали с Сергеем @TrueNort — руководителем группы. В SberDevices её называют командой «Скорость». Под надзором «Скорости» более двадцати веб-сервисов, каждый из которых должен работать быстро и точно. А значит, нужна система мониторинга производительности с гибкими настройками, чуткой реакцией на изменения и оперативными сообщениями о проблемах. В статье расскажем, зачем мы нормируем метрики логарифмами, как скрипт превращает данные из ClickHouse в алёрты и как удобнее отображать данные. Словом, поделимся нашим опытом контроля производительности веб-ресурсов.

https://habr.com/ru/companies/sberdevices/articles/1006020/

#sber #вебресурсы #Grafana #ClickHouse #GigaChat #фронтенд #производительность #Core_Web_Vitals

Как мы отслеживаем производительность веб-сервисов, или Дело «Скорости»

Салют, Хабр! Я Паша, вхожу в группу обеспечения производительности интерфейсов. Эту статью мы написали с Сергеем @TrueNort — руководителем группы. В SberDevices её называют командой «Скорость». Под...

Хабр

Скормил нейросети 40 статей ПИК с Хабра: RAG-бот на GigaChat для BIM без опыта в разработке

Меня зовут Владислав Пономарев, я архитектор, проектирую дома. Ещё в магистратуре, 10 лет назад я занимался BIM-внедрением в проектной организации в Сочи. Это были Revit, Civil 3D и другие инструменты. Делал это в рамках своей темы магистерской работы. Потом переключился на архитектуру в частном домостроительстве, где больше изучал практические вопросы проектирования и философию архитектуры, ее эстетические качества. Но любовь к более сложному BIM осталась. С энтузиазмом продвигал тему BIM, когда до массового внедрения в РФ было еще далеко. Прошли годы. Многие вопросы, которые были актуальны тогда, еще остались в повестке отрасли. Специалисты до сих пор часто работают по старинке. А ведь теперь пришёл ещё и AI, который ложится только на автоматизированные процессы. Нет BIM – нет данных. Нет данных – нейронка не поможет. При этом автоматизировать стройку – задача очень сложная. Слишком много вопросов, которые пока трудно поддаются оптимизации.

https://habr.com/ru/articles/1004802/

#gigachat #bim #вайбкодинг #строительство #rag #faiss #langchain #streamlit #python

Скормил нейросети 40 статей ПИК с Хабра: RAG-бот на GigaChat для BIM без опыта в разработке

Предыстория: архитектура, BIM и попытки автоматизации Меня зовут Владислав Пономарев, я архитектор, проектирую дома. Ещё в магистратуре, 10 лет назад я занимался BIM-внедрением в проектной организации...

Хабр

Искусственный интеллект в юриспруденции: топ-10 нейросетей для юристов

Если вы еще не пользуетесь нейросетями, вы либо очень занятой человек, либо очень принципиальный. А скорее всего, просто не знаете, с какой стороны к ним подступиться. Давайте сразу к цифрам. По данным совместного исследования Авито и Право.ru , проведенного в конце 2025 года, 88% российских юристов уже используют ИИ в работе. Да-да, почти девять из десяти. И 63% из них честно признаются: эффективность выросла. Остальные 37% либо скромничают, либо пока не подобрали правильный промпт. Коллеги из LegalOn посчитали еще интереснее: юридическая команда среднего размера, которая проходит около 500 контрактов в год, тратит на это от 1000 до 2000 часов. Это годовой график одного сотрудника, потраченный на чтение бумажек. Теперь представьте, что эти же часы можно потратить на что-то более осмысленное, чем проверка пункта 3.2 в пятьдесят первый раз. Конечно, у любой медали есть обратная сторона. Исследователи из Кембриджа недавно провели сравнительный анализ пяти популярных ИИ-инструментов и выяснили, что даже самые продвинутые модели продолжают галлюцинировать, то есть выдавать несуществующие судебные решения и ссылки на законы, которые никто не принимал. Помните историю про адвоката, который принес в суд прецеденты, придуманные ChatGPT? Вот, нейросети ничему не учатся, разве что мы их этому учим. Поэтому давайте сразу договоримся. ИИ - это очень быстрый и старательный стажер. Он может за час перелопатить сто страниц судебной практики и выдать резюме. Но подписывать своей фамилией его работу без проверки - это профессиональная небрежность чистой воды.

https://habr.com/ru/companies/bothub/articles/1001504/

#ии #ии_и_машинное_обучение #юриспруденция #ии_инструменты #gigachat #Нейроюрист #bothub #Harant #гарант #юридические_документы

Искусственный интеллект в юриспруденции: топ-10 нейросетей для юристов

Если вы еще не пользуетесь нейросетями, вы либо очень занятой человек, либо очень принципиальный. А скорее всего, просто не знаете, с какой стороны к ним подступиться. Давайте сразу к цифрам. По...

Хабр