👉 项目官网:https://www.python-office.com/ 👈
👉 本开源项目的交流群 👈
大家好,这里是程序员晚枫,最近开源大消息太多了!
-
就连一向神秘的OpenAI都忍不住了,昨天凌晨开源了2个模型:
GPT-oss-120b
和GPT-oss-20b
,不仅免费商用,而且平板手机就能玩!
开源地址:https://github.com/openai/gpt-oss
凌晨发布两个模型
凌晨 3 点,AI 圈再次被 OpenAI 引爆。
山姆·奥尔特曼亲自发推:「这是自 GPT-2 以来,我们第一次真正意义上的开源大模型。」
一句话,把全球开发者的睡意全打飞了。
这次 OpenAI 一次甩出两个模型:
• GPT-oss-120b:1200 亿参数,桌面级「满血」推理怪兽
• GPT-oss-20b:200 亿参数,手机端也能跑得动的轻量版
两个关键词:Open Weights(开放权重)+ Free to Use(免费商用)。
OpenAI重新拥抱开源,该公司表示,发布开源系统的部分原因是,一些企业和个人更倾向于在自有计算机硬件上运行这类技术。
也就是说,从今天起,你可以把 120B 的模型抱回家,离线跑,商业用,不收一分钱。
值得一提的是,这次开源的两个模型,使用的都是Apache2.0开源协议,和上次Coze开源使用的协议一样,难道通过开源建立商业版图的战略里,Apache2.0已经成为默认的标准协议了?
极致性能
发布后不到一天,GitHub上的star已经有6900多个。
对比起来,我们的python-office发布了3年多,star也只有1100个,真心羡慕了。
为什么它如此受欢迎?
1. 性能对标 o4-mini
看到这一个特点的时候,我是十分怀疑的,但就连OpenAI创始人都极力推荐,我也十分想体验一下了。
奥尔特曼原话:「现实世界性能与 o4-mini 相当」。
如果你之前被 o4-mini 的推理能力惊艳过,现在本地就能复现。
2. 真正的本地私有化
模型下载后就能用,AI工程师的岗位,应该也会越来越多了。
无需联网、无需 API Key,不再担心隐私泄露。
金融、医疗、政务,所有敏感场景直接起飞。
3. 首次开源后七年的回归
上一次 OpenAI 开源还是 2018 年的 GPT-2,七年之后大招憋出来,直接 120B。
业内人调侃:「OpenAI 终于把『Open』捡回来了。」
有没有人和我一样,刚开始看见OpenAI的时候,以为他们产品都是默认开源的?
官方代码演示
上手有多简单?
官方已经放出示例代码:
from transformers import pipeline
import torch
model_id = "openai/gpt-oss-120b"
pipe = pipeline(
"text-generation",
model=model_id,
torch_dtype="auto",
device_map="auto",
)
messages = [
{"role": "user", "content": "请介绍一下程序员晚枫和他的开源项目"},
]
outputs = pipe(
messages,
max_new_tokens=256,
)
print(outputs[0]["generated_text"][-1])
一张 RTX 4090 即可跑 120b 的 8bit 量化;骁龙 8 Gen3 手机可 4bit 跑 20b。
社区反应和行业影响
社区已经炸锅:
• GitHub Star 5 小时破 20k
• Hugging Face 下载榜直接冲顶
• 第一条 Issue:「求中文 SFT!」
可以预见,未来一周,微调教程、LoRA、中文模型会像雨后春笋一样冒出来。
对产业意味着什么?
- 私有化部署成本从百万美元降到一张显卡。
- SaaS 厂商护城河被「免费本地」冲击,必须卷服务、卷场景。
- 创业者的新机会:垂直模型 + 本地部署,做「小而美」的行业 GPT。
写在最后
上一次 GPT-2 开源,催生了 Hugging Face 和整个大模型生态。
今天,GPT-oss-120b 把门槛再次打到地板价。
所有人都能站在 120B 的肩膀上,去改写自己的行业。
历史的车轮已经启动,这一次,你不再是观众。
— END —
点赞、在看、转发,评论区聊聊你准备用 GPT-oss 做什么?