Топологический кубит от Microsoft — почему его не воспринимают всерьёз

Как известно, в феврале 2025 года научная группа Microsoft Quantum анонсировала процессор Majorana 1 как «первый в мире квантовый процессор на топологических кубитах» ( статья в Nature ). Топологический кубит состоит из энионов — двухмерных квазичастиц, которые физики обнаружили несколько лет назад . Энионы ещё не вошли в школьную программу, чтобы дополнить комплект из фермионов (например, к ним относятся электроны) и бозонов (к ним относятся фотоны) как третий класс элементарных частиц и квазичастиц в физике. До настоящего времени мало кто интересовался, что такое энионы, этот вопрос занимал разве что теоретических физиков. Но Microsoft утверждает, что уникальные 2D-частицы можно использовать для квантовых вычислений, а именно для конструирования «особо надёжных» топологических кубитов.

https://habr.com/ru/companies/ruvds/articles/896798/

#топологический_кубит #нулевые_моды_Майораны #QPU #энионы #квазичастицы #квантовая_отказоустойчивость #квантовый_эффект_Холла #тетроны #хирургия_решётки #lattice_surgery #Сверхинтеллект #алгебра_Клиффорда

Топологический кубит от Microsoft — почему его не воспринимают всерьёз

Как известно, в феврале 2025 года научная группа Microsoft Quantum анонсировала процессор Majorana 1 как «первый в мире квантовый процессор на топологических кубитах» ( статья в Nature )....

Хабр

Ведущий разработчик ChatGPT и его новый проект — Безопасный Сверхинтеллект

Многие знают об Илье Суцкевере только то, что он выдающийся учёный и программист, родился в СССР, соосновал OpenAI и входит в число тех, кто в 2023 году изгнал из компании менеджера Сэма Альтмана. А когда того вернули, Суцкевер уволился по собственному желанию в новый стартап Safe Superintelligence («Безопасный Сверхинтеллект»). Илья Суцкевер действительно организовал OpenAI вместе с Маском, Брокманом, Альтманом и другими единомышленниками, причём был главным техническим гением в компании. Ведущий учёный OpenAI сыграл ключевую роль в разработке ChatGPT и других продуктов. Сейчас Илье всего 38 лет — совсем немного для звезды мировой величины.

https://habr.com/ru/companies/ruvds/articles/892646/

#Илья_Суцкевер #Ilya_Sutskever #OpenAI #10x_engineer #AlexNet #Safe_Superintelligence #ImageNet #неокогнитрон #GPU #GPGPU #CUDA #компьютерное_зрение #LeNet #Nvidia_GTX 580 #DNNResearch #Google_Brain #Алекс_Крижевски #Джеффри_Хинтон #Seq2seq #TensorFlow #AlphaGo #Томаш_Миколов #Word2vec #fewshot_learning #машина_Больцмана #сверхинтеллект #GPT #ChatGPT #ruvds_статьи

Ведущий разработчик ChatGPT и его новый проект — Безопасный Сверхинтеллект

Многие знают об Илье Суцкевере только то, что он выдающийся учёный и программист, родился в СССР, соосновал OpenAI и входит в число тех, кто в 2023 году изгнал из компании менеджера Сэма Альтмана. А...

Хабр

Экзистенциальные угрозы AI. Что ждёт человечество, если появится искусственный сверхинтеллект

Разбираемся в философии сознания и попутно отвечаем на вопросы — возможен ли сверхинтеллект, и насколько опасно развитие AI Об угрозе человечеству со стороны машин учёные и философы говорят уже не одно столетие. Но если раньше критиковали механизацию искусства и гонку вооружений, теперь опасность исходит от искусственного интеллекта. В самом деле, современная угроза по масштабам несопоставима. Для развития ядерных технологий необходимы ресурсы целых государств. А небольшая команда талантливых инженеров может за несколько строчек кода перевернуть историю человечества. Достаточно научить AI-алгоритм улучшать самого себя — тогда, согласно концепции «взрыва интеллекта», произойдёт скачок AI до уровня суперинтеллекта. Последствия — непредсказуемы.

https://habr.com/ru/companies/redmadrobot/articles/878152/

#ai #ии #сверхинтеллект #суперинтеллект #будущее #agi #философия #философия_ии #философия_сознания

Экзистенциальные угрозы AI. Что ждёт человечество, если появится искусственный сверхинтеллект

Разбираемся в философии сознания и попутно отвечаем на вопросы — возможен ли сверхинтеллект, и насколько опасно развитие AI Об угрозе человечеству со стороны...

Хабр

[Перевод] Искусственный интеллект и экзистенциальный кризис

Существует пласт опасений, что искусственный интеллект способен стать угрозой существования человечества. При этом речь идет как о сценариях уничтожения в «пепле ядерной войны», так и «серой ассимиляции», что показал фильм «Превосходство». Но, согласно с новым исследованием, большие языковые модели (LLM) могут только следовать инструкциям, не могут самостоятельно развивать новые навыки и по своей сути «контролируемы, предсказуемы и безопасны», что звучит как хорошая новость для нас, кожаных мешков с мясом.

https://habr.com/ru/articles/836904/

#искусственный_интеллект #нейросети #работа_нейросетей #превосходство #суперкомпьютер #сверхинтеллект #развитие_интеллекта

Искусственный интеллект и экзистенциальный кризис

Существует пласт опасений, что искусственный интеллект способен стать угрозой существования человечества. При этом речь идет как о сценариях уничтожения в «пепле ядерной войны», так и «серой...

Хабр

До AGI и ASI осталось 20 лет: почему до восстания ИИ ещё далеко

Помните ту фольклорную фразу? "До управляемого термоядерного синтеза осталось 20 лет. " И сколько бы лет не прошло, мы находимся всё в тех же 20 годах от него. Однако модели ИИ прогрессируют крайне быстро. Далёкие от технологий люди уже задумались о сюжетах Матрицы и Терминатора. Чуть более продвинутые технооптимисты ждут AGI или сингулярность, чтобы получать безусловный базовый доход и не работать, а технофобы консерваторы говорят, что всё нужно ограничить и запретить (ха-ха). Локальные запреты в отдельных странах усилят их глобальное отставание, а страны без запретов получат преимущество. Так что процесс развития нейросетей необратим. Дропдаун

https://habr.com/ru/companies/servermall/articles/819973/

#AI #ML #DL #ии_и_машинное_обучение #AGI_и_ASI #сверхинтеллект #Ашенбреннер #OpenAI #GPU #NVIDIA

До AGI и ASI осталось 20 лет: почему до восстания ИИ ещё далеко

NVIDIA и OpenAI Помните ту фольклорную фразу? До управляемого термоядерного синтеза осталось 20 лет И сколько бы лет не прошло, мы находимся всё в тех же 20 годах от него :) К сожалению, AGI к нам ещё...

Хабр