OpenAI首发开源,本地可跑,评分近商用版
| 坐北科技泽传媒| 2025-08-08
【流媒体网】摘要:OpenAI开源120b和20b两款本地可运行GPT模型,商用无限制。

  OpenAI最近放了个新动作——把能本地跑的GPT模型开源了,一下出了俩型号,120b和20b,AI圈里倒是挺热闹的。

  这是他们2020年后头回开放模型权重,而且用的是Apache 2.0协议,意思就是能随便用、随便改,商用也没限制,这点确实挺大方。

  说起来这俩模型还挺“懂事”,120b看着参数多(1170亿),但优化后单张80GB显卡就能跑;20b更灵活,压缩后才12.8GB,家里有张16GB内存的显卡就能试试,普通电脑也能沾沾大模型的边了。

  性能上也没太缩水,毕竟训练时就用了低精度格式做适配。看测试数据,120b在编程竞赛里的分数离自家商用的o4-mini差一点,数学竞赛用工具后准确率96.6%,跟o4-mini的98.7%也比较接近,医疗领域测试能追上o3模型,日常用着应该够使。

  网友试了下,20b模型出结果挺快,三秒左右就能给回复。有网友用RTX 4090在Windows系统上搭了Ollama平台,拉模型、提问一套流程下来挺顺,查个资料啥的反应还不错。

  不过官方也说了,模型还有小问题,比如事实性问答偶尔会出错,内容审核得自己操心。但安全这块他们做了“最坏场景微调”测试,还请了外部专家把关,没出啥大纰漏。

  现在OpenRouter、Ollama这些平台已经接上了,中文社区里也开始有教程和调优方案冒出来。以前跑大模型得攒好几块高端显卡,现在一张消费级的就有可能搞定,对想自己折腾的人来说,确实多了个新选择。

  只能说这波操作让开源AI的门槛又降了点,至于后续能玩出啥花样,还得看开发者们怎么琢磨了。

责任编辑:凌美

分享到:
版权声明:凡注明来源“流媒体网”的文章,版权均属流媒体网所有,转载需注明出处。非本站出处的文章为转载,观点供业内参考,不代表本站观点。文中图片均来源于网络收集整理,仅供学习交流,版权归原作者所有。如涉及侵权,请及时联系我们删除!