История ИИ на пальцах — от перцептрона до GPT-4o

История развития области искусственного интеллекта - невероятно захватывающая тема. Как из первых, довольно робких идей, которые часто подвергались критике, выросли технологии, меняющие наш мир прямо сейчас? Об этом пути – от почти механических предков ИИ до современных моделей вроде ChatGPT/Claude/Gemini/Grok и других, способных вести осмысленный диалог – я и хочу рассказать. Это не будет скушняцкий научный трактат, изложение фактов или лекция, а скорее взгляд со стороны человека, которому самому это все супер интересно - взгляд на ключевые вехи, прорывы и интересные моменты этой удивительной истории. Я собираюсь не просто пройтись по истории, но и на пальцах объяснить (вот как сам разобрался - так и расскажу) - как оно все работало. Возможно, без огромной технической глубины - зато интересно и с понятными примерами. Мы с вами получим представление о том, как оно было – от допотопного перцептрона до последних современных моделей-трансформеров. Посмотрим, как это работало, удивимся прорывам и попробуем заглянуть – что там за горизонтом (хотя, конечно, с AI-2027 мне тягаться бесполезно). Поехали!

https://habr.com/ru/articles/900228/

#история #искусственный_интеллект #ai #llm #интересное #programming #ии #перцептрон #технологии #развитие_технологий

История ИИ на пальцах — от перцептрона до GPT-4o

От перцептрона до GPT-4o Введение История развития области искусственного интеллекта - невероятно захватывающая тема. Как из первых, довольно робких идей, которые часто подвергались критике, выросли...

Хабр

Как действительно понять нейронные сети и KAN на интуитивном уровне

Вот вы читаете очередную статью про KAN и ловите себя на мысли, что ничего не понимаете. Знакомая ситуация? Не переживайте, вы не одни. И дело тут не в вас, суть в том, что множество материалов описывают концепции по отдельности, не объединяя их в единую картину. И чтобы решить эту проблему раз и навсегда и окончательно понять KAN, нам необходимо переосмыслив всё с нуля и постепенно двигаясь от базовых принципов линейной алгебры через нейронные сети, завершив, обобщая всё с помощью множеств. В процессе мы также рассмотрим некоторые довольно уникальные и новые идеи!

https://habr.com/ru/articles/823388/

#нейросети #machine_leraning #kan #kolmogorovarnold_networks #теорема_колмогорова_арнольда #rbf #перцептрон #artificial_intelligence #mlp

Как действительно понять нейронные сети и KAN на интуитивном уровне

Вот вы читаете очередную статью про KAN и ловите себя на мысли, что ничего не понимаете. Знакомая ситуация? Не переживайте, вы не одни. И дело тут не в вас, суть в том, что множество материалов...

Хабр

50 лет первому микрокомпьютеру: Mark-8 и атака клонов Mark-I

Ровно полвека назад, в 1974 году, на базе первого в мире 8-битного микропроцессора Intel 8008 был разработан первый микрокомпьютер Mark-8. Его создал Джонатан Титус, химик-аспирант в Virginia Tech. А мы отправляемся назад в прошлое, чтобы рассказать подробнее об этой разработке и других «Марках» из седой древности — а также почему они все назывались почти одинаково.

https://habr.com/ru/companies/ddosguard/articles/857618/

#mark1 #marki #mark8 #история_компьютеров #фон_нейман #оппенгеймер #розенблатт #перцептрон #перцептроны

50 лет первому микрокомпьютеру: Mark-8 и атака клонов Mark-I

Ровно полвека назад, в 1974 году, на базе первого в мире 8-битного микропроцессора Intel 8008 был разработан первый микрокомпьютер Mark-8. Его создал Джонатан Титус, химик-аспирант в Virginia Tech....

Хабр

Простая нейронная сеть на C++

Всем привет! При помощи нейронной сети решил проблему классификации фигур на изображениях размера 7 на 7 пикселей. Задача решалась в рамках студенческой лабораторной работы. Статья приводится в качестве руководства для решения подобных академических задач.

https://habr.com/ru/articles/846088/

#Обучение #Гайд #Алгоритм #Нейросеть #Перцептрон

Простая нейронная сеть на C++

Предисловие Всем привет! Данная статья написана в качестве рефлексии по поводу выполнения лабораторной работы. Поскольку упор делался на написание рабочей нейронной сети, все приведенные формулы не...

Хабр

На практике пробуем KAN – принципиально новую архитектуру нейросетей

На днях ученые из MIT показали альтернативу многослойному перцептрону (MLP). MLP с самого момента изобретения глубокого обучения лежит в основе всех нейросетей, какими мы их знаем сегодня. На его идее в том числе построены большие языковые модели и системы компьютерного зрения. Однако теперь все может измениться. В KAN (Kolmogorov-Arnold Networks) исследователи реализовали перемещение функций активации с нейронов на ребра нейросети, и такой подход показал блестящие результаты.

https://habr.com/ru/articles/812147/

#нейросеть #перцептрон #нейронные_сети #ml #data_science

На практике пробуем KAN – принципиально новую архитектуру нейросетей

На днях ученые из MIT показали альтернативу многослойному перцептрону (MLP). MLP с самого момента изобретения глубокого обучения лежит в основе всех нейросетей, какими мы их знаем сегодня. На его идее...

Хабр