Использование больших языковых моделей (LLM) в Access Management

Может ли искусственный интеллект революционизировать управление доступом? Есть ли подводные камни? Высокие затраты, риск «галлюцинаций», производительность в реальном времени, эффективность - что перевешивает? В данной статье мы разберемся, как можно применить LLM к управлению доступом для повышения эффективности и стоит ли.

https://habr.com/ru/articles/915564/

#access_management #llm #большие_языковые_модели #аутентификация #авторизация #аудит_безопасности #машинное_обучение #галлюцинации_ии #large_language_models #ai

Использование больших языковых моделей (LLM) в Access Management

Введение Хайп вокруг нейросетей, особенно больших языковых моделей (LLM), пока не утихает. Как в свое время было с хайпом на блокчейн многие техноэнтузиасты начинают применять подход “решение в...

Хабр

[Перевод] Как я нашёл уязвимость в ядре Linux при помощи модели o3

В этом посте я расскажу, как нашёл уязвимость нулевого дня в ядре Linux при помощи модели OpenAI o3. Уязвимость обнаружилась благодаря одному лишь API o3 — не потребовались никакая дополнительная настройка, агентские фреймворки и инструменты. Недавно я занимался аудитом уязвимостей ksmbd. ksmbd — это « сервер ядра Linux, реализующий в пространстве ядра протокол SMB3 для передачи файлов по сети ». Я приступил к этому проекту специально для того, чтобы взять отдых от разработки связанных с LLM инструментов, но после релиза o3 не мог избежать искушения и не использовать в качестве небольшого бенчмарка способностей o3 баги, найденные мной в ksmbd. В одном из следующих постов я расскажу о показателях o3 при обнаружении всех этих багов, а сегодня мы поговорим о том, как в процессе моего бенчмаркинга o3 обнаружила уязвимость нулевого дня. Найденной уязвимости присвоили обозначение CVE-2025-37899 (её патч выложен на Github ), это use-after-free в обработчике команды SMB logoff . Для понимания уязвимости необходимо знать о работе конкурентных подключений к серверу и о том, как они в определённых обстоятельствах могут обмениваться различными объектами. Модели o3 удалось разобраться в этом и найти место, где конкретный объект с автоматическим подсчётом ссылок освобождался, но продолжал оставаться доступным для другого потока. Насколько я понимаю, это будет первым публичным рассказом об уязвимости подобного типа, обнаруженной LLM.

https://habr.com/ru/articles/912916/

#openai_o3 #o3 #llm #уязвимости #useafterfree #large_language_models #большие_языковые_модели

Как я нашёл уязвимость в ядре Linux при помощи модели o3

В этом посте я расскажу, как нашёл уязвимость нулевого дня в ядре Linux при помощи модели OpenAI o3. Уязвимость обнаружилась благодаря одному лишь API o3 — не потребовались никакая дополнительная...

Хабр

Prompt-инженерия: уменьшение сложности промпта

Раздражает непредсказуемость ответов от LLM? Устали вкладывать бюджет в более мощные модели? Если ваша цель — стабильная автоматизация и надёжный клиентский опыт с помощью LLM, то, скорее всего, вы упираетесь в одну и ту же проблему: сложность промптов . Эта статья постарается помочь навсегда забыть о «случайных» ответах и вывести эффективность ваших LLM‑решений на новый уровень.

https://habr.com/ru/articles/913062/

#promptengineering #large_language_models #промптинжиниринг #промпты #языковые_модели

Prompt-инженерия: уменьшение сложности промпта

Часто, сталкиваясь с нестабильностью LLM, компании ошибочно пытаются «задавить» проблему, переходя на более дорогие модели. Это распространённое, но крайне неэффективное решение. Даже...

Хабр

#KWIBlog:
In her text “New Reading Scenes,” former Thyssen@KWI Fellow
@KatiaSchwerzmann investigates the role of reading in the context of new developments in AI, stressing the need for ongoing investment in close and critical reading that considers AI practices and limitations.

🔎 https://blog.kulturwissenschaften.de/new-reading-scenes/

#LLM #large_language_models #AI #Closereading @sfb1567

Apple is looking to announce new access to its foundation models during WWDC June 9th. This arrangement will let developers integrate Apple Intelligence across their apps. Apple may be betting this is a way to help it catch up with its competitors in the AI space. https://www.theverge.com/news/670868/apple-intelligence-ai-third-party-developer-access-model #Apple #AI #LLMs #large_language_models #AppleIntelligence #WWDC
Apple will reportedly open up its local AI models to third-party apps

Apple is reportedly opening its AI models used for Apple Intelligence for third-party developers to use in their own iPhone and Mac apps.

The Verge

Osobiście nie jestem przeciwko modelom językowym typu chatGPT, Mistral, czy nasz polski Bielik. Tez w sumie nie obawiam się niepożądanych konsekwencji korzystania z nich, przynajmniej na tym poziomie, bo jak ktoś sam używa, to łatwo rozpoznać, co jest napisane przez taki model. Często też rezultaty są po prostu gorsze, niż jak samemu się zreliazuje jakiś projekt.

Ale fakt, jest to urocza zabawka i na uniwerku mamy z tego niezły fun, kiedy na obronie projektu, napisanego w większości przez chatGPT i tylko w połowie sprawdzonego przez nas, profesor mówi, żeby samemu sformułować jeszcze raz caly tekst. Najzabawniejsze jest to, że oni sobie zdają z tego sprawę i my też i końcowo dochodzimy do wniosku, że najlepiej samemu po prostu wszystko pisać, bo z modelami językowymi jest jeszcze więcej zbędnej pracy.

Serdeczne pozdrowienia dla mojego uniwersytetu i takie luźne, zdroworozsądkowe podejście.

#large_language_models #university

Why do LLMs have emergent properties?

Large language models show unexpected "emergent" behaviors as they are scaled up. This should not at all be surprising. Here we give a possible explanation.

John D. Cook | Applied Mathematics Consulting

We benchmarked 2k+ cloud servers for LLM inference speed (prompt processing and text generation) using models ranging from 135M to 70B parameters! 🤖

Read tech details, use our open-source tools, learn from the results at https://sparecores.com/article/llm-inference-speed

#llm #large_language_models #benchmark #cloud

LLM Inference Speed Benchmarks

We measured the prompt processing and text generation speed of different LLMs on 2000+ cloud servers.

sparecores.com
Llama 4 smells bad - FastML

Meta has distinguished itself positively by releasing three generations of Llama, a semi-open LLM with weights available if you ask nicely (and …

Что вам нужно знать, если вы решили внедрить LLM

Вокруг LLM очень много мистификации. Мол, только особенные люди после специального образования, где их учили мудрые наставники, могут освоить таинство работы с LLM. Я уверен, что это не так. У меня была мечта написать небольшой гайд, с помощью которого любой сильный духом сможет разобраться, как эти LLM нужно использовать в своем продукте. Эта статья - воплощения моей мечты. В одном исследовании утверждается, что 80% всех ИИ проектов проваливаются. Сам не считал, но думаю, что порядок примерно такой. Давайте вместе попробуем это исправить. Разобраться с LLM

https://habr.com/ru/articles/896598/

#llm #нейросети #искусственный_интеллект #artificial_intelligence #внедрение_ии #large_language_models #deeplearning #глубокое_обучение #машинное_обучение

Что вам нужно знать, если вы решили внедрить LLM

Вокруг LLM очень много мистификации. Мол, только особенные люди после специального образования, где их учили мудрые наставники, могут освоить таинство работы с LLM. Я уверен, что это не так. У меня...

Хабр