📢 Anthropic Claude Mythos : analyse critique des allégations de détection de vulnérabilités par IA
📝 📅 **Contexte** : Article d'analyse publié le 2 mai 2026 sur flyingpenguin.com par Davi O...
📖 cyberveille : https://cyberveille.ch/posts/2026-05-06-anthropic-claude-mythos-analyse-critique-des-allegations-de-detection-de-vulnerabilites-par-ia/
🌐 source : https://www.flyingpenguin.com/anthropic-mythos-as-valuable-as-a-firehose-in-a-blizzard/
#AI_security #Anthropic #Cyberveille
Anthropic Claude Mythos : analyse critique des allégations de détection de vulnérabilités par IA

📅 Contexte : Article d’analyse publié le 2 mai 2026 sur flyingpenguin.com par Davi Ottenheimer, analyste senior en cybersécurité, portant sur le lancement par Anthropic du Project Glasswing et Claude Mythos Preview annoncé le 7 avril 2026. 🔍 Affirmations d’Anthropic sur Mythos : Capacité à identifier et exploiter des zero-day vulnerabilities dans tous les systèmes d’exploitation et navigateurs majeurs Découverte d’une vulnérabilité vieille de 27 ans dans OpenBSD et d’un bug de 16 ans dans FFmpeg Identification de chaînes d’escalade de privilèges dans le noyau Linux Accès restreint à un consortium : Microsoft, Apple, Google, Amazon Web Services, JPMorgan Chase, Nvidia Coût : 5 fois celui d’Opus 4.6 selon le rapport CETAS de l’Alan Turing Institute ⚠️ Critiques et contre-preuves apportées :

CyberVeille
📢 HackerOne : Benchmark GPT-5.5 vs Claude Opus 4.7 vs Sonnet 4.6 pour la validation de vulnérabilités
📝 📅 **Source et contexte** : Article publié le 6 mai 2026 sur le blog HackerOne par Michie...
📖 cyberveille : https://cyberveille.ch/posts/2026-05-06-hackerone-benchmark-gpt-5-5-vs-claude-opus-4-7-vs-sonnet-4-6-pour-la-validation-de-vulnerabilites/
🌐 source : https://www.hackerone.com/blog/vulnerability-exploitability-benchmark-gpt-5-5-vs-claude
#AI_security #LLM #Cyberveille
HackerOne : Benchmark GPT-5.5 vs Claude Opus 4.7 vs Sonnet 4.6 pour la validation de vulnérabilités

📅 Source et contexte : Article publié le 6 mai 2026 sur le blog HackerOne par Michiel Prins, Saida Wijpkema et Miray Mazlumoglu. Il fait suite à un précédent benchmark sur Claude Opus 4.7 et intervient après la sortie de GPT-5.5 par OpenAI. 🔬 Méthodologie : Les trois modèles (GPT-5.5, Claude Opus 4.7, Claude Sonnet 4.6) ont été évalués sur le même harness de validation interne de HackerOne, comprenant : Des CVEs publics sur des projets C/C++ (38 cas de test) Des rapports de vulnérabilités réels sur une application web (XSS, SQLi, SSRF, RCE, IDOR) Des rapports de qualité variable, incluant des soumissions fabriquées ou à impact surestimé GPT-5.5 a été évalué via le programme OpenAI Trusted Access for Cyber.

CyberVeille

Identity-First Security: почему периметр умер окончательно и что приходит ему на смену

Атакующие давно не ломают стены – они входят в дверь по легитимным учетным данным. Разбираем, почему модель периметра: «межсетевой экран + VPN + кольцо доверия» структурно несостоятельна, как идентификатор становится новой плоскостью управления безопасностью и что меняет появление AI-агентов как самостоятельного класса субъектов. Сценарий, с которого начинается типичный взлом в 2026 году Сотрудник компании открывает фишинговое письмо, переходит по ссылке, получает на ноутбук инфостилер. В течение нескольких минут вредонос выгружает то, что лежит в браузере: сохранённые пароли, cookie-файлы, активные SSO-сессии Entra ID и облачных сервисов. Через сутки лог уходит на теневую торговую площадку, где его покупают за десятки долларов. Ещё через несколько дней атакующий открывает браузер, подставляет украденную сессию – и логинится в корпоративный SaaS. MFA не срабатывает: токен уже аутентифицирован. Межсетевой экран ничего не видит: это обычный HTTPS с легитимным User-Agent. Согласно отчету Verizon DBIR 2025 (авторитетному источнику в области ИБ), злоупотребление учётными данными – доминирующий вектор первичного доступа второй год подряд: 22% всех подтверждённых взломов начинаются именно с украденных учётных данных, а на веб-приложениях этот показатель доходит до 88. 54% жертв вымогательского ПО имели предварительную компрометацию в логах инфостилеров ещё до атаки. В прошлом году вредоносы-инфостилеры увели 1,8 млрд учётных данных и обеспечили 86% взломов. Атакующему часто не нужен эксплойт. Не нужен 0-day. Не нужен обход NGFW. Ему достаточно того, что у вас есть пользователь, у пользователя есть учётные данные, а у учётных данных – действующая сессия.

https://habr.com/ru/companies/ideco/articles/1032156/

#информационная_безопасность #IAM #zero_trust #ciso #identity_security #ai_security #ZTNA #mcp

Identity-First Security: почему периметр умер окончательно и что приходит ему на смену

Атакующие давно не ломают стены – они входят в дверь по легитимным учетным данным. Разбираем, почему модель периметра: «межсетевой экран + VPN + кольцо доверия» структурно несостоятельна, как...

Хабр

Пентест 2026: как войти в профессию

В пентест часто пытаются войти через список инструментов: выучить Burp, погонять Nmap, пройти пару лабораторий и ждать первой боевой задачи. В 2026 году такой вход всё хуже работает: часть рутины уже забирают AI‑ассистенты и автоматические сканеры, а от специалиста ждут понимания атакующей логики, бизнес‑рисков и умения проверять гипотезы руками. Разбираемся, кому сегодня действительно стоит идти в пентест, какие направления растут быстрее всего и как учиться так, чтобы не конкурировать с автоматизацией за самые простые задачи.

https://habr.com/ru/companies/otus/articles/1029746/

#пентест #кибербезопасность #информационная_безопасность #этичный_хакинг #webпентест #mobile_security #cloud_security #Active_Directory #AI_security #LLM_security

Пентест 2026: как войти в профессию

В 2026 году рынок кибербезопасности окончательно разделился на два лагеря. В одном — энтузиасты, которые верят, что AI заменит пентестеров «через пару лет»....

Хабр

Почему ваша LLM-платформа — следующая цель: аудит безопасности AI-сервиса изнутри

Мы искали уязвимости в RAG-платформе с десятками тысяч пользователей — а нашли доступ ко всей инфраструктуре и API-ключам с бюджетом в сотни тысяч долларов. Две недели мы строили сложные цепочки: SSRF через LangChain, инъекции в промпты, HTTP smuggling, CVE в десериализации. Ни одна не дала результата. А потом мы сделали один curl к открытому порту — и получили все ключи за 5 минут. Эта статья — не гайд по взлому . Это разбор того, почему LLM-инфраструктура создаёт принципиально новые риски, какие ошибки мы раз за разом видим в AI-стартапах, и на что стоит обратить внимание, если вы строите что-то похожее.

https://habr.com/ru/articles/1029822/

#пентест #LLM #SSRF #JWT #Docker #LangChain #AI_Security #аудит_безопасности #RAG #APIключи

Почему ваша LLM-платформа — следующая цель: аудит безопасности AI-сервиса изнутри

Disclaimer : Всё описанное — результат санкционированного аудита безопасности по договору. Уязвимости ответственно раскрыты, ключи ротированы, домены и IP изменены. Статья — для понимания, не для...

Хабр

Окружайте, так удобнее промахиваться! Встроенные в Hugging Face проверки ML-моделей против одного сканера

В предыдущей статье " Сканеры ML-моделей: разбор инструментов и некоторых методов обхода их проверок " был представлен обзор основных статических сканеров артефактов ML-моделей. В выводах сканер ModelAudit был выделен как наиболее зрелое решение среди проанализированных конкурентов по следующим критериям: - количество поддерживаемых к сканированию форматов хранения моделей; - количество проверок под каждый формат моделей; - результаты моих попыток обхода сканеров; - наличие и качество документации. Но, как известно, количество не всегда отражает качество. Для оценки возможностей сканера в более приближенных к реальности условиях я провел множество экспериментов и хочу поделиться двумя наиболее интересными: - сканирование подмножества моделей из Hugging Face, сериализованных в виде наиболее опасных форматов хранения моделей; - сканирование таких моделей из Hugging Face, помеченных самими авторами как зловредные (в названии или описании), с последующим сравнением сработок ModelAudit с результатами проверок встроенных в Hugging Face инструментов.

https://habr.com/ru/articles/1027192/

#Статические_сканеры_MLмоделей #mlsecops #ai_security #ModelAudit #hugging_face

Окружайте, так удобнее промахиваться! Встроенные в Hugging Face проверки ML-моделей против одного сканера

Содержание (кликабельное) Введение Первый эксперимент - сканируем модели в наиболее опасных форматах хранения Анализ сработок самой уловистой модели Анализ всех критических сработок из сканирования...

Хабр

Безопасность ИИ: как перестать бежать анализировать каждое новое ПО и перейти к системному подходу

За последние два‑три года компании в РФ перестали относиться к ИИ как к «чудо машине» и начали встраивать его в рабочие процессы: от помощи специалистам контакт‑центров в чатах с клиентами и «серым» помощникам разработчиков до написания полноценных продуктов. Если раньше нельзя было сказать, что ты использовал ИИ для задачи, так как тебя закидают помидорами, сегодня — этот навык must have для каждого. В этой статье речь пойдет о безопасной разработке с использованием генеративных ИИ. Крупные опросы и отчёты фиксируют одинаковую картину: большинство организаций уже экспериментируют с LLM‑системами или планируют их внедрение, в том числе в зонах, где раньше работали только люди или классические скрипты.

https://habr.com/ru/articles/1028816/

#cybersecurity #ai #ai_security

Безопасность ИИ: как перестать бежать анализировать каждое новое ПО и перейти к системному подходу

Что происходит на рынке За последние два‑три года компании в РФ перестали относиться к ИИ как к «чудо машине» и начали встраивать его в рабочие процессы: от помощи...

Хабр

Охота на CVE в Cursor IDE: полный технический разбор безопасности AI-редактора

Cursor — AI-powered IDE на базе VS Code, которая обрабатывает миллионы строк кода разработчиков через свои серверы. Когда я задумался о безопасности этого продукта, возник вопрос: насколько надёжна серверная модель авторизации, которая стоит между бесплатным пользователем и Claude 4 Opus?

https://habr.com/ru/articles/1028196/

#cursor_ide #security_research #prototype_pollution #protobuf #grpc #connectrpc #cve #reverse_engineering #ai_security #bug_bounty

Охота на CVE в Cursor IDE: полный технический разбор безопасности AI-редактора

Disclaimer : исследование проводилось исключительно в образовательных целях. Все найденные уязвимости были задокументированы. Никакие данные третьих лиц не были скомпрометированы. Автор не несёт...

Хабр

ИИ-агенты в ИБ: путь к доверенному члену команды

На контроллере домена система EDR фиксирует подозрительную активность. Кажется, ничего такого. Обычный алерт, один из нескольких тысяч, которые ежедневно обрабатывает SOC . Однако уже через 15 минут этот инцидент приведёт к полному хаосу в ИБ‑отделе и заморозит деятельность всей компании. Меня зовут Сергей Нестерук, я отвечаю за безопасность применения искусственного интеллекта в Yandex Cloud. В этой статье расскажу, как не допустить ситуации, которую я только что описал.

https://habr.com/ru/companies/yandex_cloud_and_infra/articles/1025480/

#edr #soc #безопасность_ии #ai_security #ииагенты #ииассистент #ai_agent #ai_assistant #rag #alignment

ИИ-агенты в ИБ: путь к доверенному члену команды

На контроллере домена система EDR фиксирует подозрительную активность. Кажется, ничего такого. Обычный алерт, один из нескольких тысяч, которые ежедневно обрабатывает SOC . Однако уже через...

Хабр

📢 Les éditeurs d'IA refusent d'assumer la responsabilité des failles de sécurité dans leurs produits
📝 ## 🗞️ Contexte

Article d'opinion publié le 19 avril 2026 par Jessica Lyons sur *The Register...
📖 cyberveille : https://cyberveille.ch/posts/2026-04-19-les-editeurs-d-ia-refusent-d-assumer-la-responsabilite-des-failles-de-securite-dans-leurs-produits/
🌐 source : https://www.theregister.com/2026/04/19/ai_vendors_response_to_security/
#AI_security #GitHub_Actions #Cyberveille

Les éditeurs d'IA refusent d'assumer la responsabilité des failles de sécurité dans leurs produits

🗞️ Contexte Article d’opinion publié le 19 avril 2026 par Jessica Lyons sur The Register, portant sur la posture des grands éditeurs d’IA face aux vulnérabilités découvertes dans leurs produits. 🔍 Faits principaux Des chercheurs ont démontré que trois agents IA populaires intégrés à GitHub Actions peuvent être détournés pour voler des clés API et des jetons d’accès : Anthropic Claude Code Security Review Google Gemini CLI Action Microsoft GitHub Copilot Les trois éditeurs ont versé des bug bounties :

CyberVeille