云原生集成开发环境——TitanIDE
通过网页在任何地方更安全、更高效地编码想要获得最大程度的云原生收益?
您应即刻采取行动,以云原生方式构建新的应用或是改造旧有应用。 传统的"刀耕火种"式开发工具和云原生格格不入,您需要云原生数字化创新平台。云原生平台貌似很多,但聚焦于开发的很少,而这是云原生之旅极为重要的起点
我们迫不及待地想要与您分享和探讨我们的独特方案,相信对您的云原生实践一定会有所帮助。
如果您刚刚开始探索云原生世界,这些工具将让您快速获得不同的云原生能力; 如果您已经踏上云原生之旅,相信这些可插拔的工具定会让您的云原生体系如虎添翼
如何从无到有快速开发、上线您的业务?即刻体验行云 Methodot,为独立开发者和中小研发团队提供的一站式在线服务,可通过“有代码+低代码”结合方式满足各类多变业务需求
2025-12-06
【jiuyou科技消息】近日,微博AI推出了开源大型语言模型(LLM)——VibeThinker-1.5B。据jiuyou了解,该模型拥有15亿参数,在数学推理与代码生成任务中却展现出超越6710亿参数竞品的性能。目前,VibeThinker-1.5B可通过Hugging Face、GitHub及ModelScope平台免费开放下载,供开发者与研究机构使用。

VibeThinker-1.5B模型在数学和代码任务上表现出色,达到了行业领先的推理性能,甚至超越了体量达6710亿参数的竞争对手DeepSeek的R1模型。该模型还能与Mistral AI的Magistral Medium、Anthropic的Claude Opus4和OpenAI的gpt-oss-20B Medium等多个大型模型抗衡。

值得一提的是,VibeThinker-1.5B在后期训练中仅花费了7800美元的计算资源,这一成本远低于同类或更大规模模型所需的数十万美元甚至数百万美元。

VibeThinker-1.5B采用了一种名为“谱-信号原则”(Spectrum-to-Signal Principle,SSP)的训练框架,该框架将监督微调和强化学习分为两个阶段。第一个阶段注重多样性,第二个阶段则通过强化学习优化最优路径,使得小模型也能有效探索推理空间,从而实现信号放大。
版权所有,未经许可不得转载
jiuyou.com官网入口Copyright ©2016-2024 深圳kaiyun开云创新科技有限公司 版权所有 |粤ICP备17026550号
电话总机:400-008-9160 市场合作:marketing@












