DeepSeek V4 vs Claude Sonnet 4.6: кто дешевле, кто умнее

DeepSeek V4 в 3-4 раза дешевле Sonnet 4.6 на одинаковых задачах. На английских бенчмарках они почти равны, и интернет советует переходить на DeepSeek. Но что если прогнать обе модели на 50 типовых задачах российского разработчика? Разбор с цифрами и примерами.

https://habr.com/ru/articles/1028958/

#DeepSeek_V4 #Claude_Sonnet_46 #LLM

DeepSeek V4 vs Claude Sonnet 4.6: кто дешевле, кто умнее

Цены DeepSeek V4 Pro вышли в апреле 2026: $1.74 за миллион входных токенов, $3.48 за выходные. Claude Sonnet 4.6 стоит $3 и $15 соответственно. То есть в 1.7–4.3 раза дороже, в зависимости от...

Хабр

LLM бенчмарк «Испытание Дали»

Выбирая LLM для своего первого пет-проекта, я случайно создал бенчмарк для LLM "Испытание Дали" по трем параметрам: качество, скорость и стоимость. Этот бенчмарк позволил мне найти оптимальную LLM для встраивания в продукты моей компании Флаг Софт. Возможно, вас тоже заинтересуют его результаты.

https://habr.com/ru/articles/1028396/

#искусственный_интеллект #llm #бенчмарки #promptengineering #gpt5 #claude #gemini #gigachat #yandexgpt_5 #deepseek_v4

LLM бенчмарк «Испытание Дали»

Помните анекдот? — Что вы умеете лучше всего? — Я очень быстро считаю. — Сколько будет 758×652÷9? — 22! — Но это же неправильно! — Зато очень быстро. TL;DR: Выбирая LLM для своего первого...

Хабр

[Перевод] Вышел DeepSeek V4. Почему это очень плохо для США?

DeepSeek V4 Pro — это 1,6 триллиона параметров, mixture of experts (MoE), 49 млрд активных параметров и контекст в 1 миллион токенов. V4 Flash — рабочая лошадка: 284 млрд параметров суммарно, 13 млрд активных. Обе модели обучены примерно на 33 трлн токенов. На агентских бенчмарках кода, MMLU Pro, GPQA Diamond, SWE-bench Verified — V4 рядом с Opus 4.7 и GPT-5.5. Немного отстаёт, но совсем немного. Вот в чём дело. Большинству задач не нужен абсолютный frontier. Компании не решают сложнейшие научные задачи — они ведут бизнес. Представьте: вы CEO, смотрите на GPT-5.5 по $30 за миллион выходных токенов, на Opus 4.7 по похожей цене — и тут DeepSeek в разы дешевле, open source, его можно дообучать, хостить где угодно, контролировать точечно. Математика очевидна. Здесь и начинается проблема.

https://habr.com/ru/articles/1028032/

#DeepSeek_V4 #mixture_of_experts #open_source_LLM #frontier_модели #SWEbench #экспортный_контроль_AI #дистилляция_моделей #AI_безопасность #OpenAI_Anthropic_конкуренция #стоимость_инференса

Вышел DeepSeek V4. Почему это очень плохо для США?

DeepSeek выпустили V4 с открытыми весами, на уровне frontier-моделей — и в разы дешевле Opus 4.7 или GPT-5.5. R1 в своё время обвалил рынок на 20% за ночь. V4 — масштабнее. DeepSeek V4 Pro — это 1,6...

Хабр

GPT-5.5 против DeepSeek-V4: почему OpenAI удваивает цены, пока Китай демпингует

За 2 дня рынок получил сразу два флагманских релиза: GPT-5.5 от OpenAI и DeepSeek V4 . На первый взгляд это очередная гонка бенчмарков. На деле - столкновение двух стратегий: дорогая агентная модель для реальной работы против открытых весов, дешевого API и контекста на миллион токенов. Я внимательно изучила официальные бенчмарки, прайс-листы и первые отзывы разработчиков. Давайте разбираться, что из этого реально применимо в работе.

https://habr.com/ru/articles/1027564/

#искусственный_интеллект #нейросети #вайбкодинг #gpt55 #deepseek_v4 #llm #ии_агенты #open_source #бенчмарки #автоматизация

GPT-5.5 против DeepSeek-V4: почему OpenAI удваивает цены, пока Китай демпингует

GPT-2 мой новый фаворит для обложек За последние 48 часов индустрия ИИ пережила сразу 2 тектонических сдвига. Практически одновременно, 23 и 24 апреля 2026 года , свет увидели две новые флагманские...

Хабр