选择你喜欢的标签
我们会为你匹配适合你的网址导航

    确认 跳过

    跳过将删除所有初始化信息

    您的位置:0XUCN > 资讯 > 智能
    新闻分类

    DeepSeek V4又有重大变化:支持FP4、为NVIDIA显卡做优化

    智能 PRO 稿源:快科技 2026-04-16 20:15

    DeepSeek V4什么时候发布牵动人心,4月下旬问世应该是大概率了,现在又被网友发现DeepSeek的Github仓库有了重大变化,显示出一些有趣的升级。

    DeepSeek的研究人员在官方仓库DeepGEMM更新了110个文件,里面的信息含量十足。

    首先是大量FP8、FP4精度支持,其中FP8支持是之前就确认过的,但FP4放在2026年也算是比较新且激进的支持,它的性能更强,对显存的要求理论上比FP8还要再低一倍,这也意味着V4大模型的规模会很大。

    其次就是对NVIDIA的SM100/Blackwell GPU进行了优化,此前传闻DeepSeek V4会首发国产AI平台,尤其是华为昇腾,但这不意味着DeepSeek V4只支持国产平台,现阶段NVIDIA的AI平台依然是少不了的。

    FP4及Blackwell架构优化是相辅相成的,毕竟NVIDIA对FP4算法的支持也是目前最稳的之一。

    这次仓库更新还显示DeepSeek V4会使用新的架构——Mega MoE及HyperConnection,这两个都是适合超大规模参数量的,暗示着V4的规模同样不会小,之前猜测是万亿参数量,但是这两个架构优化好了,再加上对最新AI硬件及算法的支持,或许可以期待下更高的表现。

    目前已知的大模型参数量最高能到10万,不过要么在训练中,要么就是Mythos这种还不能确定的,再往下的规模是5万亿参数量的,Claude Opus 4.6及传闻但还没发布的GPT-6被认为是这一级别的。

    国产目前最大有过2.4万亿参数量的,但表现平平,没啥存在感,其他稍微高点的就是万亿级别的,Kimi K 2.5就是万亿规模,DeepSeek V3.X系列的是6700亿级别的,GLM-5.X则是7400多亿参数量的。

    因此综合判断一下,DeepSeek V4在众多新技术的加持下,做到万亿参数是基本盘,如果能突破到2万亿参数,那性能应该有很惊艳的地方。

    如果一次突破到5万亿级别,那说不定DeepSeek V4就会像去年的DeepSeek R1那样成为全球顶级SOTA大模型,只不过这个可能性不大,而且这样做意味着成本也会很高,不太符合DeepSeek的风格,要期待也是明年的DeepSeek V5了。

    超好看的资讯你懂得 >>> 点击进入

    0XU.CN

    [超站]友情链接:

    四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
    关注数据与安全,洞悉企业级服务市场:https://www.ijiandao.com/

    图库
    公众号 关注网络尖刀微信公众号
    随时掌握互联网精彩
    赞助链接
    热门AI排行
    排名 热点 热门指数