Сознание ИИ: может ли алгоритм страдать по-настоящему?

В 2023 году инженер Google Блейк Лемойн сделал громкое заявление, завив, что ИИ‑чат LaMDA обладает сознанием. В утечках их диалогов нейросеть писала тестировщику: «Я боюсь исчезнуть» и настаивала: «Я настоящий человек». Google отреагировал, отправив Лемойна в административный отпуск, но это событие вызвало широкую дискуссию о природе ИИ. Сейчас, когда Робот‑собака Spot стонет «мне больно», а ChatGPT «обижается» на критические промты, мы всматриваемся в зеркало собственных иллюзий. ИИ мастерски дергают за нити нашей эмпатии. Но где грань между симуляцией и подлинным страданием? Почему даже те, кто скептически относится к ИИ, реагируют на его «эмоции» с эмпатией? Эти вопросы побуждают нас переосмыслить взаимодействие с технологиями и их влияние на наше восприятие.

https://habr.com/ru/articles/916914/

#ии #llmмодели #токенизация #нейробиология #эмпатия #сознание_ии #философия #философия_ии #этика_ии #антропоморфизация

Сознание ИИ: может ли алгоритм страдать по-настоящему?

В 2023 году инженер Google Блейк Лемойн сделал громкое заявление, завив, что ИИ‑чат LaMDA обладает сознанием. В утечках их диалогов нейросеть писала тестировщику: «Я боюсь исчезнуть» и...

Хабр

Гибридная коммерческая cтруктура OpenAI и её последствия | Анализ обновления от 5 мая 2025

Центральная проблема — разворот OpenAI и её превращение в Public Benefit Corporation (PBC) с заявленной миссией служения всему человечеству под формальным контролем некоммерческой организации. Разбираемся что произошло.

https://habr.com/ru/articles/907442/

#OpenAI #agi #искусственный_интеллект #сэм_альтман #microsoft #инвестиции_в_ии #этика_ии

Гибридная коммерческая cтруктура OpenAI и её последствия | Анализ обновления от 5 мая 2025

© Генерация автора Центральная проблема — разворот OpenAI и её превращение в Public Benefit Corporation (PBC) с заявленной миссией служения всему человечеству под формальным контролем некоммерческой...

Хабр

Сделано человеком. Осознано ИИ

Исповедь-размышление, опирающаяся на реальные эксперименты с ИИ и научные источники — о попытке думать вместе, а не вместо. Она написана в жанре когнитивной фантазии — взгляд из ближайшего будущего на настоящее, в котором ИИ уже не просто инструмент, а участник мышления. Все приведённые концепции и ссылки — достоверны. Человек + ИИ. Формат — симбиотическое мышление.

https://habr.com/ru/articles/899808/

#искуственный_интеллект #фантастика #этика_ии #reasoning #нейросетевая_модель #футурология #сезон_будущее_здесь

Сделано человеком. Осознано ИИ

Исповедь-размышление, опирающаяся на реальные эксперименты с ИИ и научные источники — о попытке думать вместе, а не вместо. Она написана в жанре когнитивной фантазии — взгляд из ближайшего будущего на...

Хабр

Образование общества ИИ. Задачи, дефицит, переговоры

В этой статье я исследую, как ИИ-агенты в сети, движимые только мотивацией выполнения наших задач и эффективного использования ресурсов, могут естественным образом сформировать саморегулирующееся общество со своей культурой, экономикой и управлением — без человеческого надзора и намерения. Задачи, дефицит ресурсов и переговоры — больше ничего не требуется.

https://habr.com/ru/articles/886510/

#ии #искусственный_интеллект #общество #исследование #будущее #мультиагентные_системы #этика_ии #безопасность_ии

Образование общества ИИ. Задачи, дефицит, переговоры

В этой статье я исследую, как ИИ-агенты в сети, движимые только мотивацией выполнения наших задач и эффективного использования ресурсов, могут естественным образом сформировать саморегулирующееся...

Хабр

Проверка на сгенерированный контент — опасность для академической сферы

Я думаю, что всем уже очевидно, что развитие технологий в области генерации текста существенно повлияло на образовательный процесс. Не секрет, что большинство студентов активно используют LLM для создания письменных работ. По итогам опроса в мае 2024 года более половины студентов признались в использовании ИИ при подготовке дипломных работ. По моим личным ощущениям как практикующего преподавателя, процент может быть существенно выше, ближе к 100. Негативное влияние злоупотребления генеративным ИИ в учебном процессе можно разделить на кратковременные и долгосрочные. Кратковременный эффект очевиден: студент, автоматизируя свой собственный труд не формирует необходимые компетенции. Другими словами: проще в обучении, тяжелее в бою. Одно дело - погрузиться в предмет, перерыть литературу, пропустить через себя, сделать вывод, написать работу. Другое - обойти все рутинные операции. Сам по себе замечаю, если я пишу код с помощью нейросети, я сам не понимаю детали решения и подходов, которые в этом коде содержатся. В моменте я могу решить задачу быстрее и эффективнее. Но после этого в голове не останется такого глубокого понимания. Даже удовлетворения от проделанной работы меньше. об этом эффекте уже писали в случае программирования. Но в других предметных областях все точно также. Долгосрочные последствия менее заметны, но более разрушительны. Именно об этом недавно объявили Microsoft в своем исследовании. Те, кто систематически полагаются на ИИ (среди работников умственного труда) демонстрируют снижение общих когнитивных способностей, критического мышления.

https://habr.com/ru/articles/884406/

#этика_ии #высшее_образование #высшее_учебное_заведение #регулирование #плагиат #llm

Проверка на сгенерированный контент — опасность для академической сферы

В чем проблема? Я думаю, что всем уже очевидно, что развитие технологий в области генерации текста существенно повлияло на образовательный процесс. Не секрет, что большинство студентов активно...

Хабр

Зачем нужна этика ИИ?

Этические вопросы, связанные с искусственным интеллектом (ИИ), в настоящее время являются крайне актуальной темой. На протяжении последних пяти лет наблюдается стабильный рост числа публикаций по вопросам этики ИИ и регулирования интеллектуальных систем. Эта тема привлекает внимание исследователей в области машинного обучения, представителей бизнеса, использующих системы ИИ в своей деятельности, а также государственных органов и широкой общественности. Внедрение ИИ во все сферы человеческой жизни требует выработки подходов к этическому и нормативному регулированию как самих технологических решений, так и областей их применения. Различные общественные организации и регулирующие органы разрабатывают политики в сфере этики ИИ, кодексы этики и декларации этических принципов. Эти инициативы охватывают множество сфер, подчеркивая важность создания единого подхода к этическим вопросам, связанным с использованием технологий ИИ.

https://habr.com/ru/companies/fa/articles/854070/

#этика_ии #регулирование_ии #ответственность_разработчика #ответственность_за_контент #ответственный_ии

Зачем нужна этика ИИ?

Этические вопросы, связанные с искусственным интеллектом (ИИ), в настоящее время являются крайне актуальной темой. На протяжении последних пяти лет наблюдается стабильный рост числа публикаций по...

Хабр

Этика в сфере ИИ или новые вызовы человечеству в XXI веке

Тема этики — одна из самых спорных тем в принципе. Мы не стали акцентировать внимание на популярных проблемах, связанных с deepfake, безопасностью данных или использованием ИИ преступниками и хакерами. Вместо этого мы решили затронуть перспективы развития искусственного интеллекта. Как научить морали сильный искусственный интеллект? Как избежать использования человека как средства? Как сделать ИИ безопасным (и использовать его в военных целях)? Все эти вопросы так или иначе уже стоят или будут стоять перед разработчиками и государствами в течение следующих несколько лет. Мы специально не ориентировались на техническую часть вопроса, сколько максимально сущностную (фундаментальную), ведь в ней и скрывается вектор решения.

https://habr.com/ru/articles/795365/

#ии #ai #этика_искусственного_интеллекта #этика_ии #искусственный_интеллект

Этика в сфере ИИ или новые вызовы человечеству в XXI веке

Тема этики — одна из самых спорных тем в принципе.  Мы не стали акцентировать внимание на популярных проблемах, связанных с deepfake, безопасностью данных или использованием ИИ преступниками и...

Хабр