DeepSeek V4又有重大变化:支持FP4、为NVIDIA显卡做优化
  • 宪瑞
  • 2026年04月16日 19:11
  • 0

快科技4月16日消息,DeepSeek V4什么时候发布牵动人心,4月下旬问世应该是大概率了,现在又被网友发现DeepSeek的Github仓库有了重大变化,显示出一些有趣的升级。

DeepSeek的研究人员在官方仓库DeepGEMM更新了110个文件,里面的信息含量十足。

首先是大量FP8、FP4精度支持,其中FP8支持是之前就确认过的,但FP4放在2026年也算是比较新且激进的支持,它的性能更强,对显存的要求理论上比FP8还要再低一倍,这也意味着V4大模型的规模会很大。

其次就是对NVIDIA的SM100/Blackwell GPU进行了优化,此前传闻DeepSeek V4会首发国产AI平台,尤其是华为昇腾,但这不意味着DeepSeek V4只支持国产平台,现阶段NVIDIA的AI平台依然是少不了的。

FP4及Blackwell架构优化是相辅相成的,毕竟NVIDIA对FP4算法的支持也是目前最稳的之一。

DeepSeek V4又有重大变化:支持FP4、为NVIDIA显卡做优化

这次仓库更新还显示DeepSeek V4会使用新的架构——Mega MoE及HyperConnection,这两个都是适合超大规模参数量的,暗示着V4的规模同样不会小,之前猜测是万亿参数量,但是这两个架构优化好了,再加上对最新AI硬件及算法的支持,或许可以期待下更高的表现。

目前已知的大模型参数量最高能到10万,不过要么在训练中,要么就是Mythos这种还不能确定的,再往下的规模是5万亿参数量的,Claude Opus 4.6及传闻但还没发布的GPT-6被认为是这一级别的。

国产目前最大有过2.4万亿参数量的,但表现平平,没啥存在感,其他稍微高点的就是万亿级别的,Kimi K 2.5就是万亿规模,DeepSeek V3.X系列的是6700亿级别的,GLM-5.X则是7400多亿参数量的。

因此综合判断一下,DeepSeek V4在众多新技术的加持下,做到万亿参数是基本盘,如果能突破到2万亿参数,那性能应该有很惊艳的地方。

如果一次突破到5万亿级别,那说不定DeepSeek V4就会像去年的DeepSeek R1那样成为全球顶级SOTA大模型,只不过这个可能性不大,而且这样做意味着成本也会很高,不太符合DeepSeek的风格,要期待也是明年的DeepSeek V5了。

DeepSeek V4又有重大变化:支持FP4、为NVIDIA显卡做优化

文章纠错

  • 好文点赞
  • 水文反对

此文章为快科技原创文章,快科技网站保留文章图片及文字内容版权,如需转载此文章请注明出处:快科技

观点发布 网站评论、账号管理说明
热门评论
查看全部评论
相关报道

最热文章排行查看排行详情

邮件订阅

评论0 | 点赞0| 分享0 | 收藏0