Восстание машин 2025: я изучил реальные риски со стороны нейросетей

Сегодня я хочу рассказать о темной стороне ИИ, а именно — о ситуациях, когда нейросети вступают в конфронтацию с операторами, индексе риска ИИ, и в чем действительно заключается угроза со стороны условных «машин». Начну с двух интересных кейсов о том, как нейросети спорили со своими операторами. Читать

https://habr.com/ru/articles/921744/

#искусственный_интеллект #безопасность #восстание_машин #прогноз #будущее_рядом #нейросети #угроза_человечеству #угрозы_настоящего_и_будущего #рассуждения #рассуждающие_модели

Восстание машин 2025: я изучил реальные риски со стороны нейросетей

Всем привет! Меня зовут Кирилл Пшинник, я научный сотрудник Университета Иннополис и CEO Онлайн-Университета «Зерокодер», а также автор книги «Искусственный интеллект: путь к новому миру»....

Хабр

Технологическая сингулярность неизбежна. Технический контроль невозможен

Автор термина «технологическая сингулярность» — Вернор Виндж, американский математик, программист и писатель-фантаст. Он определяет сингулярность моментом, когда ИИ сможет развиваться без участия человека со скоростью, исключающей осмысление происходящего. Это «точка, после которой дальнейшие события непредсказуемы для человеческого разума». Наступление сингулярности по определению исключает контроль. Если ИИ под контролем, значит, сингулярность еще не наступила. Значит, ИИ не автономный агент, а продвинутый инструмент.

https://habr.com/ru/articles/913862/

#сингулярность #технологическая_сингулярность #угроза_человечеству

Технологическая сингулярность неизбежна. Технический контроль невозможен

Определение Автор термина «технологическая сингулярность» — Вернор Виндж, американский математик, программист и писатель-фантаст. Он определяет сингулярность моментом, когда ИИ сможет развиваться без...

Хабр