#ai #minisforum Зато почти ничего не тормозит, но это не точно....
@cauf я хз чем. 5060 на маленьком контексте на мелкой модели в x2 быстрее. Чем больше давать контекста\модель тем медленнее. А тут так не падает скорость. И на условной glm-4.7-flash:latest будет выдавать 67 т\с
Сейчас еще скачаю gpt-oss-120b попробую....