利益相关:参与过Kimi-K2的接生,自己的孩子怎么看都顺眼。 自从Kimi K2发布以来,很高兴得到了开源社区大量的关注。注意到尽管我们的模型结构近乎完全继承了DeepSeek-V3(下文简称 DSv3),依然有很多小伙伴深入探究两个模型仅存的一点“不同”背后的原因。作为Moonshot Infra侧推理小透明一名,今天. K2比第一版V3强了不少,和带点混合推理风格的V3也难分优劣。 从这个角度讲, K2作为基座模型应该是合格的。只不过不太能理解,Kimi是怎么做到用15T的数据训练1T模型而不过拟合的。 而且这模型的聊天方面是比较厉害的,他的用语风格deepseek v3有着很大的区别,一点不啰嗦,幻觉也不太严重,不过. 3)更强的视觉能力。 跟其他开源 VLM 模型相比,Kimi-VL 在多项视觉场景具备全面的竞争优势,比如在视觉感知、视觉世界知识、OCR、高分辨率屏幕快照解析等场景。 此外,我们还带来了支持长思考的模型分支版本:Kimi-VL-Thinking。 但是开两个窗口分屏实在是太麻烦了,能不能再Obsidian里使用Kimi呢? 我们使用 Surfing 插件就可以将Obsidian变为浏览器。 目前本仓库的设置下你应当可以在Obsidian里直接打开以下链接: kimi.moonshot. 扫码登录一气呵成。 如果你喜欢暗色主题也可以用Suring切换。 Kimi-Researcher只是这段旅程的一个开始,他验证了我们可以通过RL的形式将Agent需要的能力内化进模型本身,未来我们会继续增加Task和工具,让模型进一步在探索中泛化,General Agent就在不远的“明天”! 本文看法仅代表个人观点,与Moonshot AI不构成直接关系:) 这里主要的问题是你想用Claude Code,但是在国内用Claude模型本身太麻烦了,所以退而求其次,你可以选择Qwen Code + Qwen3 Coder模型,或者Claude Code + Kimi K2。 价格来说,Claude 4 sonnet太贵,不是土豪不建议,相比来说Kimi k2和Qwen3 Coder都是比较合适的。
2024年12月16日,月之暗面 (Moonshot AI)发布视觉思考模型Kimi-k1。 2024年12月16日,无问芯穹宣布首个端侧全模态理解的开源模型Megrez-3B-Omni。 2024年12月13日,巨人网络发布有声游戏生成模型 千影QianYing,包括游戏视频生成模型YingGame、视频配音模型YingSound。 Kimi K2 的优势之一是 能够为应用程序编写计算机代码,企业认为该领域有潜力利用生成式人工智能减少或取代员工。OpenAI 的美国竞争对手 Anthropic专注于编码,并于 5 月底发布了 Claude Opus 4 模型。 Moonshot 在社交媒体平台 X 和 GitHub 上的发布公告中声称,Kimi K2 在两个基准测试中超越了 Claude Opus 4,并且. Kimi K2 体验不错,搭配 Claude Code 使用更佳 | Kimi K2 作为非推理模型,实际体验下来是不错的。 这波靠着开源 + Code Agent 能力,在社区赢得了不错的自发传播和口碑。
OPEN