Что не так с позиционированием технологии Deepfake и почему она ещё не закрепилась на рынке (мысли маркетолога вслух)

Перспективная технология сначала какое-то время ищет своё место на рынке, а затем уже закрепляется – и зачастую не там, где планировалось. Из примеров, которые приходят на ум: SMS разрабатывался как технический канал связи между инженерами и операторами мобильных сетей, детский пластилин Play-Doh в 1930-х был инновационной смесью для обработки обоев от сажи и пыли, а исследования радиолокации в ходе РЭБ стали микроволновками на наших кухнях. Кажется, что Deepfake пока что не «устаканился» на каком-либо из рынков (хотя киноиндустрия – наиболее вероятный претендент) и пока находится в стадии активного поиска. Разумеется, чем более прорывной является технология, тем сильнее возникает соблазн использовать «тёмную сторону силы»: согласно Юнгу, Тень всегда стремится к проявлению – иногда так, что полностью заменяет собой Персону – это справедливо и для рыночных ниш. Дипфейк не уникален: когда-то давно порох изначально был атрибутом праздника (фейерверки), а динамит помогал шахтёрам прокладывать тоннели, но если бы мы с вами сейчас играли в игру «100 к 1», это были бы далеко не самые популярные ответы о применении пороха и динамита. Возможно, люди скоро забудут о том, что airTag на самом деле помогает искать потерянные вещи, а вовсе не следить за неверными мужьями – рынок иногда преподносит сюрпризы, оставляя поиск ответа на вопрос «почему?» грядущим поколениям. «Серый» функционал часто является фоновым сопровождением для основного назначения, и иногда с этой проблемой приходится активно взаимодействовать на старте самой компании-прародителю. Например, подделка документов и фото в Photoshop в какой-то момент вылилась в инициативу компании Adobe по созданию Content Authenticity Initiative (CAI) и проекта C2PA . Однако если на рынке не сложилась система взаимной ответственности, внутри которой имидж бенефициаров находится в плотной ассоциативной связке с неоднозначным продуктом, то работа по «обелению» становится неприоритетной. Создаётся впечатление, что подчёркивать светлые стороны deepfake для широких масс пока что не представляется нужным или возможным – слишком много «грязной» работы придётся проделать.

https://habr.com/ru/articles/913570/

#deepfake #дипфейк #маркетинг #цифровые_помощники #кино #сериалы #размышления #футурология #позиционирование_продукта

Что не так с позиционированием технологии Deepfake и почему она ещё не закрепилась на рынке (мысли маркетолога вслух)

Искусственная голографическая программа Джой в фильме "Бегущий по лезвию-2049" (2017) Перспективная технология сначала какое-то время ищет своё место на рынке, а затем уже закрепляется – и зачастую не...

Хабр
Алена Омаргалиева рассказала, как ее хит "Мужчина" похитили еще до его выхода

Неизвестные использовали искусственный интеллект, чтобы создать песню, как у певицы.

УНИАН

Пришёл, накодил, победил: хакатон глазами победителей и организаторов

В этой статье мы хотим поделиться своим опытом, который поможет вам подготовиться к любому хакатону (hackathon). Наверняка вы уже слышали про этот специфический формат соревнований для айтишников. На них ставятся практические задачи, которые участники решают за определённое время, имея ограниченные ресурсы. Обычно участники представлены командами, поэтому крайне важно уметь работать сообща. Помимо денежного приза победители получают известность. В дальнейшем это способствует обращению к ним с заказами на решение подобных задач. Для работодателя хакатон заменяет десятки собеседований и знакомство с заявленными в резюме проектами (которые ещё неизвестно кто и как делал). Он сразу получает представление о реальных возможностях готовой команды разработчиков и может пригласить лучшую на свой проект. Российская ИТ-компания «Криптонит» тоже участвует в хакатонах, причём в разных качествах. Наши молодые специалисты пробуют силы в профильных конкурсах, а их более опытные наставники сами организуют хакатоны для поиска сильных команд. Вот пара историй для лучшего понимания деталей. Veni, cogitavi, vici! У нас есть лаборатория ИИ, сотрудники которой приняли участие в хакатоне SafeSpeak-2024 , организованном университетом МТУСИ и институтом AIRI. Заявки на этот конкурс подали наши специалисты Анна Холькина и Карина Янышевская, специализирующиеся на алгоритмах обработки естественного языка. Задача хакатона была на злобу дня: требовалось представить решение для борьбы с мошенниками, говорящими с жертвой от имени кого-то из её знакомых. Техника таких атак называется аудио-спуфинг и всё чаще используется в генерации дипфейков. Командам нужно было создать модель машинного обучения для обнаружения таких дипфейков и обеспечения безопасности голосовой связи.

https://habr.com/ru/companies/kryptonite/articles/881648/

#хакатон #машинное_обучение #обработка_естественного_языка #речевые_технологии #модели_машинного_обучения #искусственный_интеллект #deepfake #дипфейк

Пришёл, накодил, победил: хакатон глазами победителей и организаторов

В этой статье мы хотим поделиться своим опытом, который поможет вам подготовиться к любому хакатону (hackathon). Наверняка вы уже слышали про этот специфический формат соревнований для айтишников. На...

Хабр

Сообщники хакеров поневоле: как сотрудники влияют на информационную безопасность и что с этим делать

В условиях стремительного развития технологий и постоянного увеличения числа киберугроз, киберграмотность становится не просто желательной, а необходимой компетенцией для всех сотрудников в компаниях. Киберугрозы, такие как фишинг, вредоносные программы и утечки данных, могут нанести серьезный ущерб не только финансовому состоянию компании, но и её деловой репутации. В данной статье покажем, насколько важна роль сотрудника в кибератаках и почему развитие киберграмотности в организации — необходимость, продиктованная прогрессом.

https://habr.com/ru/companies/ussc/articles/858852/

#киберугрозы #фишинг #дипфейк #вредоносные_программы #ddos #ddosатака #киберграмотность #security_awareness #вишинг #кибербезопасность

Сообщники хакеров поневоле: как сотрудники влияют на информационную безопасность и что с этим делать

В условиях стремительного развития технологий и постоянного увеличения числа киберугроз, киберграмотность становится не просто желательной, а необходимой компетенцией для всех сотрудников в компаниях....

Хабр

Обновление FaceFusion v3.0.0 — ультимативной нейросети для дипфейков

Всем привет! В этой статье взглянем на FaceFusion версии 3.0.0 — мощный инструмент для замены лиц на изображениях и видео! Для использования понадобится всего лишь фотография в профиль. Также в статье расскажу, как не париться с установкой и запустить FaceFusion в один клик.

https://habr.com/ru/companies/timeweb/articles/851398/

#дипфейк #дипфейки #deepfake #нейросети #искусственный_интеллект #будущее_здесь #timeweb_статьи

Обновление FaceFusion v3.0.0 — ультимативной нейросети для дипфейков

Всем привет! В этой статье взглянем на FaceFusion версии 3.0.0 — мощный инструмент для замены лиц на изображениях и видео! Для использования понадобится всего лишь фотография в профиль. Также в статье...

Хабр

Голос под защитой. Запускаем хакатон SafeSpeak-2024, посвящённый борьбе с голосовыми дипфейками

Всем привет! Как и многие читатели Хабра (надеемся), мы в AIRI и МТУСИ терпеть не можем телефонных мошенников. К сожалению, с каждым годом арсенал их методов расширяется. А в связи с развитием и удешевлением ML‑решений в руках мошенников появляются предобученные модели синтеза речи и преобразования голоса. ML‑сообщество, конечно же, активизировалось для борьбы с этой и другими проблемами, связанными с распространениями голосовых подделок. Чтобы привлечь к решению задач безопасности голосовой коммуникации больше исследователей, наша команда решила провести хакатон SafeSpeak-2024, посвящённый разработке технологий обнаружения аудио‑спуфинга, и нацеленный на решение актуальных проблем безопасной голосовой аутентификации, а также защиту биометрических систем от атак. Подробности — в тексте ниже.

https://habr.com/ru/companies/airi/articles/857896/

#Дипфейк #спуфингатаки #биометрия #хакатон #хакатоны

Голос под защитой. Запускаем хакатон SafeSpeak-2024, посвящённый борьбе с голосовыми дипфейками

Всем привет! Как и многие читатели Хабра (надеемся), мы в AIRI и МТУСИ терпеть не можем телефонных мошенников. К сожалению, с каждым годом арсенал их методов расширяется....

Хабр

[Перевод] Становится ли лицо знакомого — обманом? Риски и защита в мире дипфейков и ИИ

Благодаря широкому распространению инструментов ИИ сегодня один человек может с небывалой прежде легкостью выдать себя за другого, но ведущие компании принимают ответные меры и внедряют соответствующие политики и технологии. Осенью прошлого года завирусился ролик с Томом Хэнксом, в котором он рекламирует стоматологию, однако сам актер не участвовал в съемках. На самом деле кто-то просто воспользовался схожестью с актером и применил технологию deepfake («дипфейк»), чтобы создать подделку. Инцидент в духе времени: можно создать убедительную иллюзию, в которой любой человек будет говорить или делать что угодно. Стремительное развитие генеративного ИИ породило массу нового контента, который достиг такого уровня, что практически невозможно отличить, где реальность, а где то, что создано бездушной машиной. Читайте новую главу отчета Tech Trends 2024 от Deloitte в переводе Хабр-редакции КРОК под катом!

https://habr.com/ru/companies/croc/articles/854678/

#ии #дипфейк #информационная_безопасность #социальная_инженерия #фишинг #генеративный_ии

Становится ли лицо знакомого — обманом? Риски и защита в мире дипфейков и ИИ

Благодаря широкому распространению инструментов ИИ сегодня один человек может с небывалой прежде легкостью выдать себя за другого, но ведущие компании принимают ответные меры и внедряют...

Хабр

[Перевод] Как мы будем жить в мире, где всё может оказаться подделкой? Личный опыт человека, получившего цифрового двойника

Привет, на связи Шерпа Роботикс. Сегодня мы перевели для вас статью Мелиссы Хейккиля — старшего репортёра MIT Technology Review, где она освещает темы искусственного интеллекта и того, как он меняет наше общество. Чтобы написать эту статью Мелисса прошла через процедуру создания цифрового двойника с помощью стартапа Synthesia. Новая технология Synthesia впечатляет, но порождает серьезные вопросы о мире, где все труднее отличить реальность от вымысла. Стартап по искусственному интеллекту создал гиперреалистичную глубокую подделку автора статьи, настолько правдоподобную, что она пугает. В статье Мелисса рассуждает о том, как отличить реальность от вымысла в эпоху синтетических медиа и как это повлияет на нашу жизнь в будущем.

https://habr.com/ru/companies/sherpa_rpa/articles/848072/

#искусственный_интеллект #дипфейк #синтетические_медиа

Как мы будем жить в мире, где всё может оказаться подделкой? Личный опыт человека, получившего цифрового двойника

Привет, на связи Шерпа Роботикс. Сегодня мы перевели для вас статью Мелиссы Хейккиля — старшего репортёра MIT Technology Review, где она освещает темы искусственного интеллекта и того, как он меняет...

Хабр

Уродливые дети ИИ-революции

Революция ИИ случилась очень внезапно даже по меркам стремительно развивающихся технологий последних десятилетий. Как говорил фантаст и идеолог киберпанка Уильям Гибсон, будущее уже наступило — оно просто неравномерно распределено. И в одном из направлений — имитации внешности и голосов людей — будущее как будто шагнуло вперед сразу на столетие. Что происходит с индустрией сейчас, что ее ждет и как с эпидемией дипфейков планируют бороться в будущем? О том, что тема дипфейков — на гребне волны общественного интереса, говорит хотя бы то, что этот текст пришлось переписывать и дополнять несколько раз: когда он уже был готов к публикации, появлялась новая информация либо из мира дипфейков, либо из мира борьбы с ними. Но сопротивление кажется обреченным на провал: фейки уже как цунами — закрывают горизонт и того и гляди обрушатся на наши головы. Компании вроде OpenAI и Microsoft на словах признают опасности, которые приносят технологии, но продолжают создавать все более и более совершенные продукты. Как будто недостаточно того, что у OpenAI есть Sora, которая создает настолько реалистичные ролики, что создатели боятся пускать к ней пользователей. Microsoft же в конце апреля представила модель VASA-1, которую в обзорах называют «ночным кошмаром создания дипфейков» — убедительная анимация создается на основе всего одной фотографии. Или даже картины. Если Мону Лизу можно заставить читать рэп, что уж говорить об обычных людях… А цифра «1» в названии ясно даёт понять, что останавливаться компания на этом не планирует.

https://habr.com/ru/companies/gazprombank/articles/826614/

#искусственный_интеллект #дипфейк #nft

Уродливые дети ИИ-революции

Революция ИИ случилась очень внезапно даже по меркам стремительно развивающихся технологий последних десятилетий. Как говорил фантаст и идеолог киберпанка Уильям Гибсон, будущее уже наступило — оно...

Хабр

Deep Live Cam — нейросеть для дипфейков в реальном времени

Всем привет! В этой статье познакомимся с Deep-Live-Cam - это инструмент для замены лиц в реальном времени и создания видеодипфейков с использованием всего одного изображения. Софт включает встроенную проверку на недопустимые материалы и поддерживает GPU ускорение для улучшенной производительности. Также расскажу, как не париться с установкой и запустить Deep Live Cam в один клик. Всё, что нам понадобится, чтобы завести Deep Live Cam - это веб-камера и видеокарта Nvidia или AMD с более чем 6-ью Гб видеопамяти. P. S. Если вы используете смартфон как веб-камеру то, к сожалению, программа просто не будет распознавать устройство. Возможно, в будущем это пофиксят, было бы очень удобно!

https://habr.com/ru/articles/823520/

#дипфейк #дипфейки #deepfake #web_camera #нейросети #искусственный_интеллект #будущее_здесь

Deep Live Cam — нейросеть для дипфейков в реальном времени

Всем привет! В этой статье познакомимся с Deep-Live-Cam - это инструмент для замены лиц в реальном времени и создания видеодипфейков с использованием всего одного изображения. Софт включает встроенную...

Хабр