分散成分分析で検証するLLM-as-a-Judgeの信頼性 — AIエージェントの一貫性実証に向けて
https://gihyo.jp/article/2026/03/aws-llmops-03?utm_source=feed
#gihyo #技術評論社 #gihyo_jp #AWS #バックエンド #LLM #データ分析 #AgentCore_Observability #LLM_as_a_Judge
分散成分分析で検証するLLM-as-a-Judgeの信頼性 — AIエージェントの一貫性実証に向けて
https://gihyo.jp/article/2026/03/aws-llmops-03?utm_source=feed
#gihyo #技術評論社 #gihyo_jp #AWS #バックエンド #LLM #データ分析 #AgentCore_Observability #LLM_as_a_Judge
LLM出力の精度90%→98%に。LLM-as-judgeとClaude Codeで自律チューニング
https://qiita.com/ntaka329/items/ecc075eed19afedbc8d3?utm_campaign=popular_items&utm_medium=feed&utm_source=popular_items
#qiita #LLM #プロンプトエンジニアリング #ollama #ClaudeCode #LLM_as_a_Judge
LLM Firewall: как вписать LLM в контур информационной безопасности
Привет, Хабр! Я Исмагилов Ильнур, разработчик команды Центра интеллектуальной автоматизации Innostage. В прошлой статье мы кратко рассмотрели угрозы ИИ‑сервисам и базовые меры защиты — этого достаточно, чтобы правильно стартовать внедрение ИИ в бизнес-процессы и заложить фундамент best‑практик для масштабирования. Во второй части мы смотрим на LLM Firewall как на рабочий элемент LLMSecOps: от требований приказа ФСТЭК до минимально достаточной архитектуры безопасной эксплуатации LLM в компании. Разбираем, какие защитные меры действительно имеют смысл, где проходит граница разумного контроля и как наращивать защиту по мере роста ИИ-систем, не уходя в overengineering. Материал будет полезен AI-инженерам, специалистам по информационной безопасности и руководителям ИТ и ИБ. Мы обсуждаем, как сохранить управляемость и контроль рисков при внедрении ИИ без лишних затрат, и показываем более глубокие техники выявления атак на LLM — от анализа поведенческой телеметрии до оценки угроз в реальном времени.
https://habr.com/ru/articles/981408/
#LLM_Firewall #LLMSecOps #AIGateway #LLM_as_a_judge #llm #prompt_injection