Безопасность AI-агентов в Web3. Часть 2: уязвимости современных LLM и соревновательный взлом

Продолжаем знакомиться с небезопасным Web3 и языковыми моделями, которые широко применяются для AI-агентов. В этой статье расскажу о новых подходах и примерах успешных jailbreak-запросов GPT4/4.5/Claude. Посмотрим на современные модели, в т.ч. те, которые и ломать не надо. Сравним стойкость разных моделей, а в конце разберем несколько конкурсных задач по взлому AI Web3 агентов. Первую часть можно найти тут

https://habr.com/ru/companies/pt/articles/897074/

#blockchain #web3 #jailbreak #claude_3 #grok #gpt4 #ai_agent #promptengineering #llmмодели #llm

Безопасность AI-агентов в Web3. Часть 2: уязвимости современных LLM и соревновательный взлом

Современные методы джейлбрейков Как и обещал, после небольшой паузы мы продолжаем знакомиться с небезопасным Web3 и языковыми моделями, которые широко применяются для AI агентов. В этой части расскажу...

Хабр