最近是不是被manus刷屏了
今天聊聊另外一个重磅消息,阿里QWQ32B真正用1/10的成本去复现deep seek的效果,也就是说deep seek帮对面完成1~100,QWQ完成了100~1000,这么大的成就,结果一早发现今天没人说,今天所有人都在聊manus阿里QWQ32B大元模型就是32B参数的小模型,可以和deepp r1的巨无霸671B一较高下,它最主要的突破就是小而精的力量,价格方面也比deep seek省了90%,在节能调优方面中国企业真是吊打国际巨头,也就是说现在对面的GPT的4.5的价格已经是咱们这边的某些模型价格输出的几千倍了,然后他们还在涨价!
QWQ仍然是混合专家模型,他每次回答问题的时候其实调用的更少,另外就是训练方法的创新,这一次的QWQ摒弃了传统的奖励模式,采用的是验证方式提出反馈,换句话说就是他每一次答问题他都是在做新的问题,而不是调用回忆。阿里这一次抛弃了大力出奇迹,转向了分阶段的强化学习策略,RL先聚焦数学编程,再拓展通用能力,这就意味着AI竞争进入全新阶段!
把QWQ开源链接发到这里,
大家有兴趣体验点击链接使用吧QwQ-32B
开源链接在此:
魔搭开源链接: 魔搭社区
huggingface开源链接:https://huggingface.co/Qwen/QwQ-32B
当然如果想直接上手体验,官方也给出了在线体验的地址: Qwen Chat
左上角模型选择Qwen2.5-Plus,然后开启Thinking(QwQ),就能用QwQ-32B了。
没有回复内容