[Перевод] Как исследователи нарушают привычные подходы в ИИ, исключая матричное умножение

Привет, на связи Елена Кузнецова, специалист по автоматизации Шерпа Роботикс. Сегодня я перевела для вас статью, посвященную использованию моделей ИИ без лишней математики. Все мы знаем, что нейросети - дело энергозатратное. А описанные в статье исследования могут помочь снизить энергопотребление в работе нейросетей. Исследователи из Университета Калифорнии в Санта-Круз, UC Дэвис, LuxiTech и Университета Сучжоу объявили о разработке нового подхода к оптимизации работы языковых моделей ИИ, который исключает матричное умножение из вычислительных процессов. Это принципиально меняет операции нейронных сетей, которые в настоящее время ускоряются с помощью графических процессоров (GPU). Результаты работы, изложенные в недавней препринте, могут существенно повлиять на экологическую устойчивость и операционные расходы систем ИИ.

https://habr.com/ru/companies/sherpa_rpa/articles/853244/

#матричное_умножение #MLGRU #glu

Как исследователи нарушают привычные подходы в ИИ, исключая матричное умножение

На этой диаграмме, взятой из статьи, показана относительная производительность LLM без MatMul по сравнению с обычным (Transformer++) LLM на контрольных примерах Привет, на связи Елена Кузнецова,...

Хабр