OpenAI最近放了个新动作——把能本地跑的GPT模型开源了,一下出了俩型号,120b和20b,AI圈里倒是挺热闹的。
这是他们2020年后头回开放模型权重,而且用的是Apache 2.0协议,意思就是能随便用、随便改,商用也没限制,这点确实挺大方。
说起来这俩模型还挺“懂事”,120b看着参数多(1170亿),但优化后单张80GB显卡就能跑;20b更灵活,压缩后才12.8GB,家里有张16GB内存的显卡就能试试,普通电脑也能沾沾大模型的边了。
性能上也没太缩水,毕竟训练时就用了低精度格式做适配。看测试数据,120b在编程竞赛里的分数离自家商用的o4-mini差一点,数学竞赛用工具后准确率96.6%,跟o4-mini的98.7%也比较接近,医疗领域测试能追上o3模型,日常用着应该够使。
网友试了下,20b模型出结果挺快,三秒左右就能给回复。有网友用RTX 4090在Windows系统上搭了Ollama平台,拉模型、提问一套流程下来挺顺,查个资料啥的反应还不错。
不过官方也说了,模型还有小问题,比如事实性问答偶尔会出错,内容审核得自己操心。但安全这块他们做了“最坏场景微调”测试,还请了外部专家把关,没出啥大纰漏。
现在OpenRouter、Ollama这些平台已经接上了,中文社区里也开始有教程和调优方案冒出来。以前跑大模型得攒好几块高端显卡,现在一张消费级的就有可能搞定,对想自己折腾的人来说,确实多了个新选择。
只能说这波操作让开源AI的门槛又降了点,至于后续能玩出啥花样,还得看开发者们怎么琢磨了。
责任编辑:凌美
24小时热文
流 • 视界
专栏文章更多
- 短剧榜单丨7月美团摘得双榜榜首,小米首部短剧问世 2025-08-08
- [常话短说] 【解局】入股香港宽频,背后何深意? 2025-08-08
- [常话短说] 【拆解】一个广电站:8个人,1000万,咋做的?! 2025-08-07
- 剧集|《朝雪录》38.2亿正片播放量!霸榜独播网剧TOP1 2025-08-06
- [常话短说] 【解局】第五大运营商,出道即巅峰! 2025-08-06