Технологии

DeepSeek V4 в пять раз дешевле GPT-5 и работает без чипов Nvidia

Китайская лаборатория, обрушившая акции Nvidia моделью R1, возвращается с версией крупнее, заметно дешевле и оптимизированной под китайское железо. V4-Pro — самая большая открытая модель искусственного интеллекта, которую когда-либо строили; обе версии уже лежат на Hugging Face под лицензией MIT, а цены заметно ниже того, что берут OpenAI и Anthropic.
Susan Hill

Компания DeepSeek выложила preview-версию V4-Pro и V4-Flash — две языковые модели с открытым исходным кодом, которые закрепляют конкретный тезис: обработка контекста в миллион токенов перестала быть проблемой объёма и стала вопросом эффективности. V4-Pro содержит 1,6 триллиона параметров суммарно, из которых 49 миллиардов активны при каждом запросе — достаточно, чтобы обработать целый репозиторий кода или книгу целиком в одном промпте. Открытая модель впервые всерьёз конкурирует с топовыми закрытыми моделями в математике, программировании и агентных задачах — и делает это по цене, составляющей малую долю того, что берут OpenAI и Anthropic.

Обе модели распространяются под лицензией MIT, а веса уже опубликованы на Hugging Face. V4-Flash — облегчённый вариант: 284 миллиарда параметров суммарно и 13 миллиардов активных — достаточно компактно, чтобы квантизированная версия запустилась на топовом ноутбуке. V4-Pro — флагман: 865 гигабайт на диске, рассчитан на облачное развёртывание и на исследовательские лаборатории. У обеих моделей одинаковое окно контекста в миллион токенов — скачок, который догоняет Gemini от Google и удваивает то, что предлагает большинство конкурирующих открытых моделей.

YouTube видео

Ключевой архитектурный ход называется Hybrid Attention: DeepSeek объединяет две техники сжатия и опускает затраты памяти настолько агрессивно, что V4-Pro при одинаковой длине контекста использует только 27% вычислительной мощности и 10% кэша по сравнению с V3.2. V4-Flash идёт ещё дальше. На практике: обслужить промпт в миллион токенов на V4-Pro сегодня дешевле, чем обслужить такой же на 100 000 токенов на прошлом поколении. Это не технический нюанс — это экономическое условие, при котором модели с длинным контекстом перестают быть лабораторной демонстрацией и становятся реально применимым коммерческим продуктом.

Ценовой перелом — точка, в которой запуск бьёт сильнее всего. V4-Flash стоит 0,14 доллара за миллион входных токенов — дешевле даже GPT-5.4 Nano от OpenAI. V4-Pro стоит 1,74 доллара за миллион входных токенов и 3,48 доллара за миллион выходных — треть того, что Anthropic берёт за Claude Opus 4.7, и пятая часть того, что OpenAI берёт за GPT-5.5. На программистских бенчмарках V4-Pro набирает рейтинг Codeforces 3 206 — по данным DeepSeek, значение, которое поставило бы модель на 23-е место среди людей-программистов в мировых соревнованиях.

Геополитическое прочтение весит не меньше, чем сами цифры бенчмарков. DeepSeek оптимизировала V4 под чипы Ascend 950 от Huawei и под кремний китайской Cambricon, и не дала Nvidia или AMD раннего доступа для калибровки производительности — обратная сторона стандартной отраслевой практики. Запуск работает как коммерческий стресс-тест всей китайской технологической цепочки, которая годами работает под американскими экспортными ограничениями. Для Европы вопрос становится куда более неудобным: пока Пекин собирает суверенную полную цепочку — открытые веса, внутренние чипы, собственное программное обеспечение для инференса — а Вашингтон закрывает свою законодательным путём, европейский цифровой суверенитет остаётся структурно зависимым от инфраструктуры обоих блоков.

Серьёзные оговорки всё же остаются. V4 — preview-версия, не продакшен-релиз, и независимые сторонние бенчмарки пока не завершены. Собственный технический отчёт DeepSeek признаёт, что модель отстаёт от GPT-5.4 и Gemini 3.1 Pro на три-шесть месяцев по фронтирной способности. Предшественник R1 был запрещён или ограничен уже через несколько недель после релиза в нескольких штатах США, в Австралии, на Тайване, в Южной Корее, в Дании и в Италии — V4 наследует ту же регуляторную экспозицию в этих рынках без изменений. Подрядчикам Пентагона, кроме того, запрещено использовать модели DeepSeek по американскому закону NDAA 2026, если только они не получили явное исключение.

За пределами этих зон запретов доступ мгновенный. Веб-чатбот DeepSeek предоставляет V4-Pro через режим Expert и V4-Flash через режим Instant бесплатно, а разработчики могут обращаться к API, просто меняя имя модели на deepseek-v4-pro или deepseek-v4-flash.

Релиз пришёлся ровно на годовщину того, как DeepSeek-R1 потряс мировые рынки ИИ 20 января 2025 года — календарь выбран сознательно. Окончательная стоимость API за пределами preview-фазы пока остаётся неопределённой, а старые эндпоинты deepseek-chat и deepseek-reasoner будут отключены 24 июля 2026 года, когда весь трафик автоматически перенаправится на V4. То, что действительно поставлено здесь на кон, выходит за рамки отдельного бенчмарка: это первое публичное доказательство того, что конкурирующая держава способна выдать полный, конкурентоспособный и дешёвый AI-стек без опоры на американских поставщиков — и одно это доказательство переписывает координаты для любой суверенной ИИ-стратегии впредь.

Обсуждение

Имеется 0 комментариев.