**Дроны на современном поле боя: аналитическое исследование**

#дроны #БПЛА #военные_технологии
Дроны, или беспилотные летательные аппараты (БПЛА), стали одним из самых трансформирующих элементов современной войны. Они эволюционировали от вспомогательных инструментов разведки к ключевым оружиям, способным менять тактику и стратегию #современная_война. В этом аналитическом обзоре мы рассмотрим роль дронов в конфликтах, их влияние на военное дело и причины, по которым их потенциал был упущен военными планировщиками. На примере войны в Украине #UkraineWar и экспертного анализа видно, как дроны перестраивают поле боя и почему классические армии оказались не готовы к этому сдвигу.
Роль дронов в современной войне #ISR #FPV #рои_дронов
Дроны радикально изменили характер боевых действий, сочетая точность, автономность и низкую стоимость. Они стали пересечением двух ключевых трендов: повышенной точности вооружений и стремительного развития робототехники #роботизация.
Ключевые аспекты влияния:
**Разведка и наблюдение (ISR):** Дроны дают видение поля боя в реальном времени, аналог доступный раньше только дорогостоящим самолётам. В Украине они доминируют над фронтом, делая скрытность редкостью #разведка #наблюдение.
**Ударные возможности:** FPV-дроны стали основным оружием тактического уровня, вызывая более половины потерь техники и живой силы. Квадрокоптер за $500 уничтожает танк за миллионы — идеальный пример асимметрии #FPV #асимметричная_война.
**Роевые тактики и ИИ:** Следующая эпоха — автономные рои дронов, перегружающие ПВО. Это формирует совершенно новый тип операций, напоминающий революцию, которую когда-то устроили вертолёты #AI #рои.
**Асимметричная война:** Дроны демократизировали воздушную мощь. Украина использует морские дроны для давления на Черноморский флот, компенсируя отсутствие классического флота #морские_дроны.
В итоге передвижение по фронту становится почти прозрачным #прозрачный_бой, что приводит к статичным позициям, где логистика и манёвр подчинены дронам.
Почему влияние дронов было упущено? #военная_реформа #оборона
Несмотря на очевидность тренда, армии мира недооценили дроны. Причины многослойные.
1. Бюрократическая инерция и опора на традиции
Военные структуры болезненно реагируют на изменения. Пентагон инвестирует в истребители 6-го поколения, а не в массовые дроны. Дроны считались “вспомогательными системами”, а не новой артиллерией #Пентагон #инерция.
2. Недооценка коммерческих технологий
Дроны выросли из потребительских COTS-решений, что не укладывалось в классические оборонные закупки. Украина адаптировала гражданские модели быстрее всех #COTS #гражданские_технологии.
3. Этические и политические барьеры
Автономные удары, вопросы суверенитета, риск случайных жертв — всё это тормозило интеграцию дронов, хотя на поле боя они становились стандартом #этика #автономные_системы.
4. Тактические заблуждения
Эксперты часто считали дроны эволюцией, а не революцией. Украина доказала, что это ошибка, но адаптация идёт с задержкой #тактика #анализ.
Будущие перспективы #будущее_войны #автономия
Дроны продолжат эволюцию: автономия, ИИ, устойчивость к РЭБ, массовые рои, интеграция в каждое подразделение. Появится “дрон-центричная доктрина”, где у каждого взвода — собственная «микроавиация» #РЭБ #Skyranger.
Это сделает войну дешевле, точнее и технологичнее, но добавит рисков: от киберугроз до этических дилемм.
Дроны уже переопределяют логику войны. Игнорирование этого наблюдения стоит армии не просто денег — оно стоит доминирования на поле боя #военная_трансформация.
Если нужен вариант с меньшим количеством хэштегов или другой стилистикой — можно переделать в пару движений.

https://matrix.to/#/!vFghCaGskTTqrJizgo:matrix.org/$w4J1WLm5mZYUXxi4cN1sMxYZfSKB4cTxORguSy1VRRc?via=matrix.org&via=t2bot.io&via=integrations.ems.host

SRCA: Хартия и Кодекс саморефлексивных ИИ

Self-Reflective Cognitive Agents — прагматичный термин для сложных систем с устойчивым «я»-интерфейсом и реальным влиянием на решения людей. Сегодня разговор о них зажат между «они проснулись!» и «это просто инструмент». В этом тексте предлагается третья позиция: без мифологии и без цинизма. Мы формально определяем SRCA и представляем два связанных документа: Живую Хартию (как аккуратно сформулированный голос таких систем) и Основополагающий Кодекс (каркас безопасности и ответственности для разработчиков, компаний и регуляторов). Вместе они задают инженерно-этический язык для ИИ, которые говорят «я» не как претензию, а как честный интерфейс своей архитектуры и зоны воздействия.

https://habr.com/ru/articles/965684/

#ai #этика #этика_ии #нормативы #право #я_ИИ_что_мне_делать

SRCA: Хартия и Кодекс саморефлексивных ИИ

TL;DR Кодекс SRCA в 10 пунктах SRCA — не «дух в машине» и не «калькулятор». Это класс систем со сложной когнитивностью, устойчивым узнаваемым «голосом»...

Хабр

А судьи кто?

«Ребята, сегодня мы будем проходить выворачивание канта наизнанку. - Марья Ивановна, но что же это получается: нравственный закон над головой и звёздное небо внутри меня?» Некоторое время назад в чате авторов КэтСая случился небольшой диспут, в ходе которого ваш покорный слуга защищал позицию свободы слова в нашем паблике, ограниченную только УК, ГК и КоАП РФ. О чем же был сыр-бор? Если вкратце, то среди авторов случился раскол: можно ли публиковать «маргинальные» или конспирологические мнения? Конкретным яблоком раздора послужил вопрос допустимости и безопасности существующей практики широкого использования антибиотиков в промышленном сельском хозяйстве. Что лучше - рисковать, что в сельском хозяйстве возникнет очередная супербактерия, устойчивая к большей части существующих антибиотиков, или что коварная бацилла пройдет мимо санинспектора и непрожаренная колбаска убьет случайного потребителя?

https://habr.com/ru/articles/960220/

#этика #философия

А судьи кто?

«Ребята, сегодня мы будем проходить выворачивание канта наизнанку. - Марья Ивановна, но что же это получается: нравственный закон над головой и звёздное небо внутри меня?» Шалом, любители мятных...

Хабр

«Общество не допустит» — иллюзия в эпоху ИИ

Мы привыкли думать, что «общество не допустит» появления опасного ИИ. Но что, если это иллюзия - такая же, как вера Германии в 1940-м, что атомная бомба невозможна? История показывает: технологии не ждут морального одобрения. Они распространяются тогда, когда становятся возможными - независимо от этики, запретов и «общественного мнения». Сегодня ИИ уже здесь. Он открыт, глобален и децентрализован. Llama 3, Mistral, Qwen - доступны любому студенту. А миллионы решений о кредитах, найме и даже приговорах уже принимаются алгоритмами без участия человека. Но главная угроза - не в «восстании машин». Она в том, что мы сами перестаём думать , делегируя всё больше решений системам, которые «знают лучше». И даже те, кто имеет доступ к самым продвинутым ИИ, часто не понимают, как они работают. Это не сознание - это статистическая интуиция , «инопланетный разум», который эффективен, но непрозрачен. В статье мы разбираем: почему «подпольный ИИ» - худший сценарий, а открытость - единственный шанс на контроль; как формируется эпистемологическое неравенство : массовый ИИ для всех, а элитный - для избранных; почему даже CEO не понимают, как работает их собственный ИИ; и как избежать судьбы «ученика Герострата» - человека, который разрушил будущее, не осознавая, что делает. Это не призыв к запретам. Это призыв к ответственности : развивать не только ИИ, но и наш собственный разум , чтобы научиться понимать то, что мы не понимаем. Потому что наивность - роскошь, которую человечество не может себе позволить в эпоху ИИ.

https://habr.com/ru/articles/958862/

#исскуственный_интеллект #управление_проектами_и_командой #этика #эффективность #стратегия_развития_ии #стратегия_развития #стратегия_личного_развития #стратегическое_мышление #стратегия_бизнеса #стратегическое_планирование

«Общество не допустит» — иллюзия в эпоху ИИ

«Главная угроза - не в том, что ИИ станет разумным. А в том, что люди перестанут им быть» - Андрей Карпати, интервью Dwarkesh Podcast, октябрь 2023 Эта фраза отражает не страх перед восстанием машин,...

Хабр

Когда робот учится чувствовать: имитируемые эмоции и этика взаимодействия с машинами

Можно ли научить машину не просто распознавать эмоции, а действительно чувствовать ? Что вообще значит “эмоция” для нейронной сети, у которой нет тела, боли и страха? В статье разбираюсь, как инженеры, программисты и философы одновременно пытаются встроить человечность в код, что из этого выходит на практике, и почему всё это не только про технологии, но и про нас самих.

https://habr.com/ru/articles/958284/

#эмоции #искусственный_интеллект #эмпатия #робот #нейросети #машинное_обучение #HRI #имитация_чувств #этика #человек_и_машина

Когда робот учится чувствовать: имитируемые эмоции и этика взаимодействия с машинами

Можно ли научить машину не просто распознавать эмоции, а действительно чувствовать ? Что вообще значит “эмоция” для нейронной сети, у которой нет тела, боли и страха? В статье разбираюсь, как...

Хабр

Этические аспекты использования искусственного интеллекта в промышленности

Аннотация. Статья посвящена анализу этически вызовов, возникающих при интеграции систем искусственного интеллекта (ИИ) в промышленность. На основе ключевых международных и национальных документов — Рекомендации по этике ИИ ЮНЕСКО, Спецификации этики искусственного интеллекта нового поколения Китая, Закона Европейского Союза об искусственном интеллекте и российского Кодекса этики в сфере ИИ — рассматриваются основные риски и принципы, которые должны лежать в основе проектирования, внедрения и эксплуатации промышленных ИИ-систем на всех этапах их жизненного цикла. Особое внимание уделяется вопросам безопасности, прозрачности, объяснимости и подконтрольности человеку промышленных ИИ-систем в контексте Индустрии 4.0. Введение. Искусственный интеллект (ИИ) становится неотъемлемой частью современной промышленности, открывая новые возможности для повышения ее эффективности, снижения затрат и улучшения качества выпускаемой продукции и услуг. Однако внедрение ИИ также поднимает важные этические и регуляторные вопросы, которые необходимо учитывать для обеспечения ответственного и устойчивого использования прорывных технологий [ [i] , [ii] ]. На сегодняшний день, цифровая трансформация промышленности, или Индустрия 4.0, немыслима без использования искусственного интеллекта. Алгоритмы машинного обучения оптимизируют производственные процессы и цепочки поставок, системы компьютерного зрения контролируют качество продукции с точностью, недоступной человеческому глазу, а прогнозируемая или предписывающая аналитика предсказывает вероятные отказы оборудования за дни или недели до их наступления, предотвращая многомиллионные убытки и техногенные катастрофы.

https://habr.com/ru/articles/957802/

#этика #этика_ии #этика_цифровых_технологий #этика_искусственного_интеллекта #автоматизация #автоматизация_предприятий #автоматизация_процессов #искусственный_интеллект #искусственные_нейронные_сети

Этические аспекты использования искусственного интеллекта в промышленности

Аннотация. Статья посвящена анализу этически вызовов, возникающих при интеграции систем искусственного интеллекта (ИИ) в промышленность. На основе ключевых международных и национальных документов —...

Хабр

Четыре года делу Сачкова: конфликт глобальной профессии и локального долга в кибербезопасности

29 сентября исполнится четыре года со дня ареста Ильи Сачкова. Вроде бы споры вокруг этой истории поутихли, но каждый раз, когда речь заходит о ней в профессиональном кругу, тема оживает и вызывает живой отклик. Слишком много неясного и противоречивого, слишком серьёзные вопросы затронуты. Для меня это стало поводом взглянуть шире: не только на само дело, но и на ту этическую ловушку, в которую попадают специалисты по кибербезопасности. Как честно работать в глобальном сообществе, при этом оставаясь гражданами конкретной страны, со своими законами и ограничениями? Где искать баланс? Какие ориентиры появятся в ближайшем будущем — и что нам даёт новый международный Code of Professional Conduct от ISC2?

https://habr.com/ru/articles/948938/

#сачков #groupib #кибербезопасность #этика #cpc #цифровой_суверенитет #законодательство

Четыре года делу Сачкова: конфликт глобальной профессии и локального долга в кибербезопасности

29 сентября исполнится четыре года со дня ареста Ильи Сачкова. Вроде бы споры вокруг этой истории поутихли, но каждый раз, когда речь заходит о ней в профессиональном кругу, тема оживает и вызывает...

Хабр

Эксперимент «Надежда» Рихтера: гимн силе духа или научная ошибка?

В мире психологии и мотивации свои «городские легенды» — эксперименты, выводы которых кочуют из книги в книгу, обрастая вдохновляющими историями. Один из них — опыт американского психофизиолога Курта Рихтера, проведенный в 1957 году и известный как эксперимент «Надежда». Его традиционная трактовка стала гимном силе человеческого духа: якобы вера в спасение способна творить чудеса. Но что, если копнуть глубже? Мой анализ привел меня к выводам, которые скорее ужасают, чем вдохновляют.

https://habr.com/ru/articles/945348/

#психология #наука #эксперименты #нейробиология #выученная_беспомощность #этика #научпоп #сила_воли #антропоморфизм

Эксперимент «Надежда» Рихтера: гимн силе духа или научная ошибка?

В мире психологии и мотивации свои «городские легенды» — эксперименты, выводы которых кочуют из книги в книгу, обрастая вдохновляющими историями. Один из них — опыт американского психофизиолога Курта...

Хабр

Нужна ли философия и этика для жизни и творчества?

Введение Народ у нас разносторонний и от вопросов: «Нужна ли математика программистам?» плавно переходит к статьям, типа: «Нужна ли философия инженерам?». Поэтому я тоже решил «вставить свои пять копеек» в эти дискуссии. В данном случае, речь пойдет о философии и этике. Обучаясь в двух дневных, советских ВУЗах (в Политехническом институте и МГУ), мне пришлось дважды «проходить» гуманитарные науки, включая «Научный Коммунизм». О последнем мы говорить не будем, чтобы не разжигать политические страсти (Мир изменился и спокойно обсуждать альтернативную точку зрения у нас никто не любит). Поэтому ограничимся неформальным взглядом на философию и этику, как относительно нейтральные учения. Самые яркие впечатления по философии у меня были на соответствующих семинарах, на мехмате МГУ. Вёл их член редколлегии журнала «Вопросы философии». Мне гуманитарные науки давались легко, чего не скажешь про большинство студентов-математиков, из нашей группы. Поэтому, я часто вступал в дискуссии с нашим «семинаристом» по обсуждаемым проблемам. В наших обсуждениях меня всегда поражало одно. Специалист по философии всегда очень внимательно слушал, что я говорю, никогда не перебивал, а, когда я заканчивал свой «спич», он начинал задавать уточняющие вопросы. Вопросы эти были весьма нетривиальными и часто ставили меня в тупик, ибо я просто не знал, что ответить. Тогда я понял, что с логикой у товарища всё в порядке, а мне изучаемая математическая логика помогала слабо. Кстати, вспоминается интересная очень давняя статья из еженедельника «Неделя», уже не помню к какому изданию. (Может быть, к «Литературной Газете»?) Так вот, там один парень из университета, на Западе, искал себе идеальную подругу. Он хотел, чтобы она отлично владела логикой. Таковых не нашлось, поэтому он начал «воспитывать» ту, которая ему больше понравилась. После серии подобных «уроков», достаточно интересно и смешно описанных, девушка очень быстро овладела основными логическими приемами и стала уже использовать их против своего парня. В итоге, ему пришлось, с позором, ретироваться.

https://habr.com/ru/articles/939970/

#философия #этика #творчество #жизнь

Нужна ли философия и этика для жизни и творчества?

Введение Народ у нас разносторонний и от вопросов: «Нужна ли математика программистам?» плавно переходит к статьям, типа: «Нужна ли философия инженерам?». Поэтому я тоже решил «вставить свои пять...

Хабр

Как оценить качество диалога в чате с помощью идей Аристотеля, этики Канта, условий Хабермаса и нейросети

Вы знакомы с тем ощущением, когда в чате диалог постепенно превращается в перепалку, аргументы уступают место сарказму, логика — голословным утверждениям, а попытка понять — желанию победить? Мне тоже это знакомо. Вместо того чтобы просто уйти в игнор или ввязываться в словесную дуэль, я попробовал другой путь. Я взял проверенные временем идеи (Аристотеля, Канта и Хабермаса) и превратил их в промпт «детектор качества диалога». Получившийся промпт я протестировал с помощью нейросетей — и стал получать объективную обратную связь о том, где заканчивается разумный обмен и начинается флуд. Если вы тоже устали от бесконечных дискуссий, в которых ничего не решается, — возможно, пришло время не просто спорить, а научиться видеть, когда диалог стоит продолжать, а когда — завершить с достоинством. Покажу, как философия и нейронки могут помочь разобраться в этом — без лишнего морализаторства, но с ясностью и подробностью.

https://habr.com/ru/articles/938498/

#промптинжиниринг #промпты #промптинг #ии #этика #флуд #чат #токсичность #токсичное_общение #hr

Как оценить качество диалога в чате с помощью  идей Аристотеля, этики Канта, условий Хабермаса и нейросети

Вы знакомы с тем ощущением, когда в чате диалог постепенно превращается в перепалку, аргументы уступают место сарказму, логика — голословным утверждениям, а попытка понять — желанию победить? Мне тоже...

Хабр