[Перевод] Улучшаем производительность Leo с помощью модели Mixtral

Начиная с версии 1.62 нашего браузера для десктопов, мы будем использовать модель Mixtral 8x7B как большую языковую модель по умолчанию для Leo , нашего соблюдающего пользовательскую конфиденциальность ИИ-ассистента. Mixtral 8x7B — это БЯМ с открытым исходным кодом, которая была представлена Mistral AI в декабре прошлого года и с тех пор нашла широкое применение благодаря своей скорости и производительности. Помимо этого, мы улучшили UX Leo: в частности, мы упростили онбординг, управление контекстом, форматирование запросов и ответов, и в целом улучшили интерфейс Leo.

https://habr.com/ru/companies/brave/articles/790548/

#Mixtral #Leo #Brave_Leo #Code_LLM #CodeLLM #ИИассистенты #brave #brave_браузер

Улучшаем производительность Leo с помощью модели Mixtral

Начиная с версии 1.62 нашего браузера для десктопов, мы будем использовать модель Mixtral 8x7B как большую языковую модель по умолчанию для Leo , нашего соблюдающего пользовательскую...

Хабр