Liang Wenfeng和Yang Zhilin再次“ RAN”
时间:2025-05-06 09:11 作者:365bet网址

追逐和传球是企业家的普遍挑战。
文字|中国商人Yan Junken记者
编辑|张小迪
图像资源|视觉中国
在2月的“碰撞”纸之后,Liang Wenfeng和Yang Zhilin在另一个大型模型轨道上相遇。
4月30日,DeepSeek启动了DeepSeek-Prover-V2的新模型,这是一种用于证明定理的特殊模型。
Prover-V2参数量表进一步扩展到671B(6710亿个标准参数),与上一代版本的V1.5的7B量表相比,它的量表增加了近一百倍,这使其在数学测试集中变得更好,更正确。例如,该模型的minif2f的传递速率达到88.9%,并且还从putnambnch(putnam Test)解决了49个问题。
顺便说一句,在4月中旬,月球的黑暗面推出了DIN,这是一个大型模型的Kimina-Prover,用于正式的理论证明,这是Kimi Team和Numina共同制作的大型模型。产品aLSO具有开放的资源模型,该模型将1.5B和7B参数的版本提炼。该模型的minif2f通过率为80.7%,而Putnambnchy测试标记为10个问题。
与这两个相比,DeepSeek-Prover-V2发布了Minif2F测试率和Putnam测试的Kimine-Pro-Pro-Pro-Pro-Pro-Prover版本。
值得注意的是,两家公司都在其技术报告中提到了对加强的研究。例如,DeepSeek的标题是“ DeepSeek-Prover-v2:通过通过尺寸的分解来研究加强来促进形式的数学推理”,而月亮的黑暗部分的标题是“ Kimina-Prover Preview:基于基于研究研究研究研究研究的基于基于研究研究研究研究研究的大型形式形式模型”。
在2月的两篇“碰撞”论文中,梁·温芬(Liang Wenfeng)和杨张林(Yang Zhilin)都是套装中的,同一公司专注于变压器架构的最基本机制,也就是说,如何使模型变得更好。
作为最受欢迎的群集在中国嘲笑领域的培养活人员,两者也面临着各种挑战。
对于Liang Wenfeng来说,在R1模型推出三个月后,DeepSeek的“魔术”对外界的吸引力正在下降。开放的阿里巴巴模型很快就超过了DeepSeek。外界渴望期望其R2或V4模型可以提高其领先优势。
对于Yang Zhilin和Yuezhi的阴暗面,Kimi面临着兽人和腾讯Yuanbao的挑战,这也需要保持不断的变化。
编程和数学,实施AGI的两种途径
关于AGI路径的实施,Deptseek的创始人Liang Wenfeng在2024年接受了他们朝三个方向进行的次要手术采访时说:一个是数学和代码,另一个是多模式,第三个是自然语言本身。数学和代码是AGI测试的自然领域。这是一种去。这是一个封闭而验证的系统,可以实现高INT通过自学。另一方面,在现实世界中,需要参与学习。他们仍然对所有可能性开放。
启动谚语V2模型允许各种DepSeek模型立即出现。
谚语的系列模型于2024年3月发布,在DeepSeek-Prover-V1.5上(后来称为Proverbs-V1.5)于2024年8月在2024年8月发布,并于2025年4月更新为DeepSeek-Prover-V2。
DeepSeek Code系列模型于2024年4月开始更新,并于6月升级到Coder-V2-0614,并于7月升级。 9月,将DeepSeek-V2-Chat和DeepSeek-Coder-V2组合在一起。升级的新型号是Deviceek-V2.5。 2024年12月,该模型在V3上进行了更新,并于今年3月升级为V3-0324。
由1月20日发布的R1模型代表的构想的一般模型是低价,具有强大的语言识别性能。它的性能与Openai O1 I的官方版本相媲美n数学,代码,语言和其他活动的自然识别。
根据Prover-V2的技术报告,它与其他DEPSEK模型的演变有关。其中,DeepSeek-Prover-V2-671b Isuses DeepSeek-V3是正确修复的主要模型。例如,在开始的冷阶段,DeepSeek-v3用一系列的亚客体分解了复杂的问题,然后在思考过程的过程中合成了解决的子目标的证明,并伴随着Deviceek-V3的逐渐推理,这是对教育研究的初步寒冷开始的。
算法工程师和Zhihu用户“ Little Advertising”告诉中国商人,当理解模型是推断时,他们需要思考复杂。代码和数学模型可以尝试对模型的出色功能发展认识,因为已经证明了数学和代码结果。
他认为,Prover-V2的启动与发布没有必要的连接新的Model R2或V4,它与独立模型的更新相关。
他预测,R2模型类似于从GPT-O1到O3的过程。例如,就提高增强能力而言,DeepSeek可能基于V3并改善了训练的影响,因此R2开发周期可能很短。但是V4是该更新的基本版本,R&D周期可能更长,因为工程和培训方法的培训量可能会发生变化。
目前,市场充满了对新DeepSeek模型的想象力和期望。
市场上有传言称,R2模型是基于华为Ascend系列GPU CORETHE电影的基础,但内幕人士表示,这一消息不是很可靠。在NVIDIA H20芯片受到限制之后,在Merkado很难找到Aston系列芯片。 “对于阿斯顿来说,如果它用于大规模的研发模型,则可能不稳定。”
来自初创公司的另一个人LD中国的商人称华为升芯片用于培训大型型号,效果是平均的。原因是生态系统不是完美的,但是大型模型的推理和扩展没有问题。
DeepSeek和Kimi仍然可以保持领先地位吗?
大型公司追求并超越了月球的深色和黑暗部分。
以Yuezhi黑暗面的子公司Kimi为例。根据QuestMobile数据,Kimi在线不到一年。 2024年11月,其每月活跃用户超过2000万,仅次于杜巴的5600万。
QuestMobile的数据显示,到2025年2月底,AI Native Apps的活跃用户已经从Dubao,Kimi和Wen Xiaoyan转变为Deptseek,Dubao和Tencent Yuanbao,分别为1.94亿,1.94亿,1.16亿,1.16亿和4200万。
2月中旬,Tencent Yuanbao宣布访问DeepSeek。随后,一个多月以上,腾讯Yuanbao使用微信TR在吸引流量和疯狂的交通购买和投资的过程中,就用户数量而言,这是第三个排名AI产品的用户数量。根据AppRowing数据,在今年的第一季度,Tencent Yuanbao的投资成本为14亿元人民币,Kimi的规模超过1.5亿元。
当前,Kimi的最新举措是测试社区的内部功能,以提高用户的粘合剂。
DeepSeek也无法避免Challengeto Chase,甚至无法超过大型公司。最近,阿里巴巴与大型型号表现出了强烈的竞争。
4月29日,阿里巴巴发布了新一代Thyi Qianwen模型Qwen3。该模型称为第一个“混合推理模型”。这是与“快速思考”和“缓慢思考”集成的模型。参数量仅为DeepSeek-R1的1/3,其性能超过了诸如R1和OpenAI O1之类的同行产品。
过去,Tsai Chongxin对DeepSeek发表了评论,d开放资源的价值。根据公共数据,阿里巴巴·塔利(Alibaba Talyi)开设了200多个模型,全球下载超过3亿,超过100,000个Qianwen的衍生产品模型超过了美国,并成为了第一名的开放资源模型。
一位AI商人告诉《商人》在中国,DeepSeek受到了过多的关注,并得到了过多的组合。大型中国模型行业需要两个或三个领先的大型型号,而不是一个。目前,应该鼓励该领域的竞争和企业家精神。
另一个重要的球员是百度。 4月25日,百度发布了Wenxin 4.5 Turbo和X1 Turbo的深层模型。这两个型号更强大,成本较低。 Li Yanhong越来越多地提到了DeepSeek。他说,DeepSeek也不强大。它只能处理单个文本,并且不了解多媒体内容,例如声音,图片和视频。同时,枪声率相对较高H,在许多情况下不能自信地使用。
“ DeepSeek最大的问题是缓慢而昂贵的。中国市场上的大多数Mamen API都更便宜,而且反应更快。”
尽管如此,百度还是决定找出DeepSeek。今年2月,百度决定于6月30日开放Wenxin电影4.5系列的来源。
越来越多的玩家参加了大型模型的公开资源竞赛,但是技术高级的玩家可以指定标准。
金融的官方帐户
24小时广播滚动滚动最新的财务和视频信息,并扫描QR码以供更多粉丝遵循(Sinafinance)