11月8日消息,在AI大模型领域,美国企业多采用封闭模式,投入了大量资源;而国产大模型则普遍选择开源路线,此前DeepSeek、Qwen等已各展所长,如今月之暗面推出的Kimi K2 Thinking又成为了新的焦点。
Kimi K2 Thinking属于K2家族的思考大模型,在多项基准测试里的表现达到了SOTA水平,超过了GPT-5,并且在Agentic搜索、Agentic编程、写作以及综合推理能力等多个方面都实现了全面的提升。
发布仅两天,Kimi K2 Thinking就登上了HuggingFace抱抱脸榜单的榜首,国外网友对此好评如潮,同时还纷纷吐槽OpenAI等公司模型封闭的问题。
在人类终极考试(HLE)这一高难度基准测试中,Kimi K2 Thinking 获得了44.9%的成绩,表现优于Grok4、GPT-5、Claude 4.5等一众先进模型;而Kimi K2 Thinking Heavy版本的分数更可提升至51%。
HuggingFace联合创始人Thomas Wolf也针对Kimi K2 Thinking发表了看法,他表示我们正在经历又一个DeepSeek时刻——开源软件再次实现了对闭源软件的超越。他同时提出疑问:未来是否每隔几个月就会出现一次这样的情况?
Kimi K2 Thinking的惊艳之处不止于强大的能力,更核心的优势在于其成本极低。其API定价为:输入每百万token,缓存命中时0.15美元,未命中时0.6美元;输出每百万token则为2.5美元。这一价格相比GPT-5(输入每百万token1.25美元、输出每百万token10美元)要低一个数量级。
它的成本之所以这么低,和训练成本的大幅下降有很大关系。据知情人士透露,Kimi K2 Thinking的训练成本是460万美元,而此前作为成本参考的DeepSeek V3模型花费了560万美元,相比之下,现在的成本至少降低了10%。
若和国外的大模型相比,差距更是不在一个量级。OpenAI开发GPT-3耗费了数十亿美元,谷歌、微软、XAI等企业的大模型同样是巨额资金投入的成果,单是GPU方面的开销就远远超过了国内公司的投入规模。







