Модель находит баг в криптографии, а криптограф узнаёт от неё новую математику

Эта статья — ответ на критику: «перестаньте рассказывать сказки, как AI помогает в науке, покажите примеры!». Действительно, без примеров, рассказы об успешном успехе AI выглядят как сектантский бред. В феврале 2026-го Google выложил на arXiv препринт на 151 страницу. Пятьдесят авторов из Carnegie Mellon, Harvard, MIT, EPFL и ещё дюжины институтов. Документ называется скромно: «Accelerating Scientific Research with Gemini: Case Studies and Common Techniques». Скромное название, но реально очень крутой контент. Препринты о возможностях AI выходят каждый день. Большинство — бенчмарки: модель набрала 94.7% вместо прошлогодних 93.2%, поаплодируем. Здесь же, вполне конкретные исследователи рассказывают, как они месяцами бились над открытой проблемой, а потом загрузили её в Gemini Deep Think — и магически получили решение. Или контрпример. Или указание на теорему из совершенно другой области математики, о которой они никогда не слышали. Некоторые истории оттуда заслуживают отдельного разговора. Интересно! Читать далее

https://habr.com/ru/companies/bar/articles/993300/

#Gemini #LLM #SNARG #zkSNARK #LWE #верификация_доказательств #дерево_Штейнера #reasoning #peer_review #Google_Research

Модель находит баг в криптографии, а криптограф узнаёт от неё новую математику

Эта статья — ответ на критику: «перестаньте рассказывать сказки, как AI помогает в науке, покажите примеры!». Действительно, без примеров, рассказы об успешном успехе AI выглядят как сектантский бред....

Хабр

Титаны и MIROS: Google учит ИИ помнить как человек — от сюрприза к бесконечной памяти

2026 год в разгаре: мы пережили новогодние обновления фреймворков, свежие релизы ИИ-моделей и, возможно, первые эксперименты с AGI в labs. Но после праздничного кода и кофе пора нырнуть в фундаментальное — как сделать ИИ, который не просто генерирует текст, а эволюционирует в реальном времени. Около месяца назад Google Research анонсировали архитектуру HOPE с вложенным обучением для непрерывной памяти. А теперь — свежий пост о более ранних, но потенциально революционных работах: Titans и фреймворке MIROS . Это гибрид рекуррентных сетей и трансформеров, где память обновляется на лету через "сюрприз".

https://habr.com/ru/articles/988100/

#titans #титаны #долговременная_память #longterm_memory #hybrid_architecture #оптимизация #google_research #mamba #stateful #ии

Титаны и MIROS: Google учит ИИ помнить как человек — от сюрприза к бесконечной памяти

2026 год в разгаре: мы пережили новогодние обновления фреймворков, свежие релизы ИИ-моделей и, возможно, первые эксперименты с AGI в labs. Но после праздничного кода и кофе пора нырнуть в...

Хабр