DeepSeek выпускает модель Prover-V2 с 671 миллиардом параметров
Сегодня компания DeepSeek представила новую модель под названием DeepSeek-Prover-V2-671B в сообществе разработчиков искусственного интеллекта с открытым исходным кодом Hugging Face. Сообщается, что DeepSeek-Prover-V2-671B использует более эффективный формат файла safetensors и поддерживает несколько уровней точности вычислений, что способствует более быстрому и ресурсосберегающему обучению и развертыванию моделей. Она содержит 671 миллиард параметров и может представлять собой усовершенствованную версию математической модели Prover-V1.5, выпущенной в прошлом году. С точки зрения архитектуры модели, модель использует архитектуру DeepSeek-V3, принимает режим MoE (смешанный экспертный режим), имеет 61 слой Transformer и 7168-мерных скрытых слоев. Он также поддерживает сверхдлинные контексты с максимальным вложением позиций 163 800, что позволяет обрабатывать сложные математические доказательства. Он также использует квантование FP8, которое позволяет уменьшить размер модели и повысить эффективность рассуждений за счет технологии квантования. (Золотая десятка)
Дисклеймер: содержание этой статьи отражает исключительно мнение автора и не представляет платформу в каком-либо качестве. Данная статья не должна являться ориентиром при принятии инвестиционных решений.
Вам также может понравиться
10-летие ETH – карнавал сообщества Bitget
[Первичный листинг] Листинг NERO Chain (NERO) на Bitget. Присоединяйтесь и разделите 65,000,000 NERO
[Первичный листинг] Листинг DePHY (PHY) на Bitget. Присоединяйтесь и разделите 6,600,000 PHY
Новые спотовые маржинальные торговые пары - ES/USDT
Популярное
ДалееЦены на крипто
Далее








