Когда AI ставит диагноз: где проходит граница отвественности врача и алгоритма

Искусственный интеллект всё активнее входит в медицину и цифровые сервисы. Он помогает диагностировать заболевания, персонализировать интерфейсы, анализировать поведение пользователей и даже формировать рекомендации по лечению.

https://habr.com/ru/articles/1007242/

#AI_в_медицине #UX_медицинских_интерфейсов #медицинские_алгоритмы #explainable_AI #MedTech_UX #телемедицина_UX #этика_AI #интерфейсы_медицинских_систем #дизайн_медицинских_сервисов #доверие_к_алгоритмам

Когда AI ставит диагноз: где проходит граница отвественности врача и алгоритма

Искусственный интеллект всё активнее входит в медицину и цифровые сервисы. Он помогает диагностировать заболевания, персонализировать интерфейсы, анализировать поведение пользователей и даже...

Хабр

SAE: введение, пояснение и код

Привет, друзья! В прошлой статье мы разобрали идею применения автоэнкодеров к трансоформерам. Там весь наш pipeline проходил на идее сжатия признакового пространства так, чтобы поделить кошек и собак. Но что делать, если у нас не задача классификации, а задача next token prediction? Да и признаки не соответствуют "собакам" и "кошкам", а охватывают все богатство естественного языка... Ответ сообщества сейчас такой — давайте использовать SAE. Как? Разбираем основы в статье.

https://habr.com/ru/articles/983474/

#Sparse_Autoencoders #explainable_ai

SAE: введение, пояснение и код

Привет, друзья! В прошлой статье мы разобрали идею применения автоэнкодеров к трансоформерам. Там весь наш pipeline проходил на идее сжатия признакового пространства так, чтобы поделить кошек и собак....

Хабр

Заглянуть в «черный ящик»: как ИИ учат быть понятным человеку

Начну с реального случая: в 2023 году американский юрист Стивен Шварц использовал ChatGPT для подготовки судебного иска. Система уверенно создала юридический документ с многочисленными ссылками на прецеденты. С одним нюансом — все цитируемые дела оказались полностью выдуманными. Более того, когда юрист попросил ChatGPT проверить достоверность источников, система с той же уверенностью «подтвердила» подлинность несуществующих судебных решений. И это не единичный случай. Современные нейронные сети стали настолько сложными, что мы перестали понимать, как они принимают решения. Почему беспилотный автомобиль внезапно поворачивает не туда? По какой причине система медицинской диагностики пропустила опухоль на рентгеновском снимке? В таких критических случаях простого «доверия» к ИИ недостаточно — важно понимать, почему система принимает то или иное решение. Именно об этом и поговорим в статье.

https://habr.com/ru/companies/magnus-tech/articles/958854/

#объяснимый_ИИ #explainable_ai #интерпретируемый_ии #объяснимость_нейросетей #xai #методы_интерпретации_MLмоделей #нейросети #искусственный_интеллект

Заглянуть в «черный ящик»: как ИИ учат быть понятным человеку

Начну с реального случая: в 2023 году американский юрист Стивен Шварц использовал ChatGPT для подготовки судебного иска. Система уверенно создала юридический документ с многочисленными ссылками на...

Хабр

Управление ИИ (AI Governance) в 2025: пять главных вызовов и пути их преодоления

По данным глобальных отчетов, уже 30% всех корпоративных решений в 2025 году принимаются с участием искусственного интеллекта (ИИ). Инструменты ИИ активно внедряются во все сферы: они используются для оптимизации операционных и бизнес-процессов, как самостоятельные или вспомогательные продукты, а все чаще – и как системы, принимающие решения. Однако в этой гонке за эффективностью вопросы управления рисками и этические предохранители нередко отходят на второй план. Между тем, именно сфера регулирования и этики ИИ является ключевым инструментом, позволяющим компаниям обеспечить безопасное использование AI-технологий как с технической точки зрения, так и в контексте соответствия требованиям контролирующих органов. Регуляторные и этические фреймворки, закрепленные на уровне законодательства и лучших отраслевых практик, в действительности определяют ландшафт внедрения новых технологий. С какими вызовами AI Governance сталкивается IT-индустрия сегодня? В этой статье мы разберем 5 ключевых проблем регулирования ИИ, алгоритмической предвзятости, безопасности нейросетей, их экологического следа и глобальной стандартизации AI. Это авторская статья создана специально для сайта habr.com будет полезна IT-специалистам, разработчикам, менеджерам проектов, юристам, а также всем, кто интересуется будущим искусственного интеллекта, его регулированием и этическими аспектами применения технологий.

https://habr.com/ru/articles/920386/

#ai_governance #Ethical_AI #AI_Ethics #explainable_ai #EU_AI_Act

Управление ИИ (AI Governance) в 2025: пять главных вызовов и пути их преодоления

Пять Главных Вызовов Управления ИИ и Пути их преодоления По данным глобальных отчетов, уже 30% всех корпоративных решений в 2025 году принимаются с участием искусственного интеллекта (ИИ). Инструменты...

Хабр

Объяснимый ИИ в ML и DL

Объяснимый ИИ — очень важный аспект в ML и DL. Он заключается в том, чтобы интерпретировать модель так, чтобы можно было около прозрачно объяснить ее решения. Потому что это довольно частая необходимость как у конечного заказчика, ведь для них это просто «черный ящик», так и у разработчиков непосредственно (например, для отладки модели). На русском языке таких статей не так много (для тех, кто знает английский проблем с этим нет, на нем таких статей много, например, Kaggle), поэтому я решил, что статья покажется актуальной, и сегодня я попробую рассказать про это и показать на конкретном примере, как его можно реализовать.

https://habr.com/ru/articles/913772/

#ML #DL #Python #Explainable_AI #SHAP

Объяснимый ИИ в ML и DL

Объяснимый ИИ — очень важный аспект в ML и DL. Он заключается в том, чтобы интерпретировать модель так, чтобы можно было около прозрачно объяснить ее решения. Потому что это...

Хабр
Why do LLMs have emergent properties?

Large language models show unexpected "emergent" behaviors as they are scaled up. This should not at all be surprising. Here we give a possible explanation.

John D. Cook | Applied Mathematics Consulting

Logit Lens & ViT model: туториал

Привет, Хабр! В этом туториале разобран метод для анализа внутренних представлений "логит-линза" (Logit Lens). В результате практики по туториалу, вы: 1. Изучите подход и концепцию Logit Lens; 2. Реализуете Logit Lens для Visual Transformer; 3. Познакомитесь с анализом результатов применения логит-линзы. Как всегда, весь код будет на гитхаб — step by step. Welcome!

https://habr.com/ru/articles/891352/

#explainable_ai #data_science #data_analysis #transformers

Logit Lens & ViT model: туториал

Привет, Хабр! В этом туториале разобран метод для анализа внутренних представлений "логит-линза" (Logit Lens). В результате практики по туториалу, вы: Изучите подход и концепцию Logit Lens; Реализуете...

Хабр

Анализ обработки признаков в YOLO NAS S при помощи CAM

Методы объяснения моделей — практичный инструмент для понимания модели, оценки её точности и стабильности. Однако, часто можно столкнуться с ситуацией, когда фреймворк, в котором метод реализован, просто не "дружит" с реализацией модели. В этом туториале хочу подробно показать CAM (class activation map) для объяснения моделей зрения.

https://habr.com/ru/articles/876478/

#машинное_обучение #explainable_ai #нейронные_сети #pytorch

Анализ обработки признаков в YOLO NAS S при помощи CAM

Методы объяснения моделей — практичный инструмент для понимания модели, оценки её точности и стабильности. Однако, часто можно столкнуться с ситуацией, когда фреймворк, в котором метод реализован,...

Хабр

Практическая устойчивость значений Шепли в интерпретации моделей ИИ

Привет, Хабр! В исследованиях и на практике значения Шепли (Shapley values) — один из наиболее популярных методов интерпретации как на практике, так и в исследованиях. На практике этого не делается — применяется аппроксимация. Отсюда возникают вопросы, ответы на которые мы рассмотрим с вами в этой статье :)

https://habr.com/ru/articles/853794/

#explainable_ai #shap #shapley_values

Практическая устойчивость значений Шепли в интерпретации моделей ИИ

Привет, Хабр! В исследованиях и на практике значения Шепли (Shapley values) — один из наиболее популярных методов интерпретации. По определению, значения Шепли вычисляются по оценке вклада признака во...

Хабр
Researchers Develop Quantum-inspired Algorithm That Improves Cyber Attack Detection And Opens AI’s ‘Black Box’ https://thequantuminsider.com/?p=2361717 #Quantum_Computing_Business #CounterCraft #cybersecurity #David_Barroso #Explainable_AI #Matrix_Product_States #Multiverse_Computing #Román_Orús #quantumdaily Insider Brief Researchers have built a new quantum AI model that significantly improves attack detection over traditional methods. Multiverse Computing and CounterCraft researchers say the
Researchers Develop Quantum-inspired Algorithm That Improves Cyber Attack Detection And Opens AI’s ‘Black Box’

Researchers have built a new quantum AI model that significantly improves attack detection over traditional methods.

The Quantum Insider