Право на забвение: как удалить образ человека из системы распознавания лиц и не сломать её

У каждого из нас есть право контролировать использование своих биометрических данных, к которым относится и цифровое описание уникальных черт лица. Проблема в том, что системы видеонаблюдения и аутентификации с функцией распознавания лиц основаны на «патологически памятливых» нейросетях. Однажды увидев лицо, нейросетевая модель запоминает его навсегда, создавая риски для приватности. Из-за этой особенности глубокой нейросети вас могут отслеживать, даже когда это не является необходимым и правомерным. Юридическое «право на забвение» вступает в конфликт со сложностью его реализации. Эту проблему исследовал специалист лаборатории искусственного интеллекта российской ИТ-компании «Криптонит» Михаил Захаров. Он разработал уникальный метод выборочного забывания лиц системами компьютерного зрения (CVS). Предложенный метод можно использовать для удаления образов лиц из различных систем биометрической идентификации, не нарушая их функциональность.

https://habr.com/ru/companies/kryptonite/articles/1009280/

#биометрия #распознавание_лиц #эмбеддинги #забывание_в_нейросетях #machine_unlearning #функция_потерь #insightface #системы_компьютерного_зрения #cvs

Право на забвение: как удалить образ человека из системы распознавания лиц и не сломать её

У каждого из нас есть право контролировать использование своих биометрических данных, к которым относится и цифровое описание уникальных черт лица. Проблема в том, что системы видеонаблюдения и...

Хабр

Machine Unlearning. Часть 1: Почему моделям нужно уметь забывать

Большие языковые модели (LLM) сегодня умеют невероятно много — от генерации текста до сложного анализа данных. Но что происходит, если часть информации, на которой они обучались, нужно удалить? Просто убрать лишние данные и переобучить модель может быть слишком накладно и дорого. Всем привет! Меня зовут Вадим, я Data Scientist в компании Raft. В этой статье я расскажу о достаточно новом направлении машинного разучивания (Machine Unlearning), которое позволяет моделям “забывать” не нужные знания без полного их переобучения.

https://habr.com/ru/companies/raft/articles/981858/

#ai #machine_unlearning #machine_unlearning_для_llm #сезон_ии_в_разработке #машинное_обучениe #opensourse

Machine Unlearning. Часть 1: Почему моделям нужно уметь забывать

Большие языковые модели (LLM) сегодня умеют невероятно много — от генерации текста до сложного анализа данных. Но что происходит, если часть информации, на которой они обучались, нужно удалить? Просто...

Хабр

[Перевод] Забыть не значит удалить: SURE — новый устойчивый к квантованию метод «забывания» в LLM

Привет, на связи Елена Кузнецова, специалист по автоматизации Шерпа Роботикс. Сегодня я перевела для вас статью на очень важную тему, в ней затрагивается проблема удаления персональных и других важных данных из LLM моделей. В статье особенно интересно то, как команда учёных нашла лазейку с помощью которой смогла успешно восстанавливать такие «удалённые» данные.

https://habr.com/ru/companies/sherpa_rpa/articles/860588/

#Machine_unlearning #llm #llmмодели #machine_unlearning_для_LLM #SURE

Забыть не значит удалить: SURE — новый устойчивый к квантованию метод «забывания» в LLM

Привет, на связи Елена Кузнецова, специалист по автоматизации Шерпа Роботикс. Сегодня я перевела для вас статью на очень важную тему, в ней затрагивается проблема удаления персональных и других важных...

Хабр