美国AI财大气粗 国产AI学不了:Kimi仅用了1%算力就超越主流闭源
麦享科技1月22日消息,在AI竞赛上领先的主要是中美两国,其中美国AI有着得天独厚的优势,不缺钱不缺算力,但中国公司的AI往往面临算力限制,学不了美国AI的财大气粗玩法。
但这不代表国产AI做不出来成绩,研发出Kimi的月之暗面公司总裁张予彤日前在达沃斯论坛上也谈到了这个问题,表示从创业第一天起就意识到中国公司没有随意堆砌算力的条件,迫使他们通过大量基础研究的创新来换取极致的效率。
张予彤提到,Kimi仅使用美国顶尖AI实验室约1%的计算资源,便成功推出Kimi K2、Kimi K2 Thinking等全球领先的开源大模型,并在部分关键性能指标上超越美国主流闭源模型。
张予彤还提到Kimi最新一代大模型即将发布,此前我们也报道过此事,该公司已经开启招募人员内测,名字可能是K2.1,也有可能叫做K2.5。
尽管月之暗面没有透露这个新模型到底有多强,但多模态及智能体Agent预计成为重点,在商业化前景最为明确的AI编程领域很有可能带来惊喜,毕竟万亿参数的规模比智谱的GLM 4.7及Minimax的MiniMax 2.1模型规模就要大不少,能力应该会更强。
事实上,算力紧缺不只是Kimi大模型遇到的,此前DeepSeek也在论文中提到他们的大模型面临着算力及世界知识的限制,毕竟这方面国内公司天然地就面临着不利,顶级AI芯片既不能买也暂时没有台积电敢给代工。
好消息是国产AI芯片突破的也很快,新一代AI芯片也会全面支持FP8、FP4算子标准,性能也会跟上,尽管还不能超越NVIDIA芯片,但通过集群设计还是可以实现性能领先的,今年应该就能看到具体的突破。


微信扫一扫打赏
支付宝扫一扫打赏