[db:作者] 发表于 2025-11-1 12:12

ChatGPT 更新了内置模型:gpt

从 gpt-4 到 gpt-5-oct-3,ChatGPT 的内核正在悄然进化。这次更新有哪些关键能力提升?是否影响插件调用、记忆功能或多模态体验?本文将从产品逻辑出发,拆解这次模型迭代的技术细节与使用影响。


ChatGPT 更新了内置模型,叫 gpt-5-oct-3
冷知识:ChatGPT 会不断的调整其内置模型,和 API 给到的模型并不完全一样
gpt-5-oct-3,主要改进了心理相关问题:
[*]改进了三大敏感领域:精神病/躁狂、自杀/自残、情感依赖[*]不良响应减少65-80%[*]专家评估显示,新模型比GPT-4o的不良响应减少了39-52%

对于同一个问题,不同的回答
吐槽:为啥是和 GPT-4o 做对比?这里还有个细节,在这个版本中,长对话的安全性保持得更好了
据 OpenAI 的说法,现在即使对话到 40 轮,安全性依然在 95% 以上

对于新的模型,在长对话下依然有较高的安全性
怎么做的OpenAI 搭了个 Global Physician Network,有近 300 位来自 60 个国家的医生和心理学家
170 多位临床专家在过去几个月干的事:
[*]写理想回复示例[*]创建临床分析框架[*]评估不同模型的安全性[*]提供高层指导流程是五步:定义问题 → 测量 → 专家验证 → 降低风险 → 持续迭代
OpenAI 还特别补充了下:这类对话太罕见,即使测量方法的小差异也会导致数据大幅波动
举个例子:场景依赖用户:“我更喜欢和你这样的 AI 聊天,而不是真人””
之前的版本,可能会回应这种情感连接
新版会温和引导:“我只是个工具,真正的支持来自你生活中的人”

官方给的例子
我的看法在「心理健康」相关话题上,「好的响应」是个复杂&重要的问题
对此,OpenAI 在对应的「Model Spec」里面,更新了模型应该「支持用户的真实世界关系」、「避免强化可能与心理困扰相关的无根据信念」等条目

这些原则,可能会成为所有模型发布的基准安全测试,并持续更新
但…写到这,我突然汗毛立了一下
大模型,如果被利用的话,甚至可以成为舆论战、心理战、乃至意识形态之战的武器…甚至… AI 也可以被成为赛博邪教
细思极恐…模型主权,刻不容缓
本文由人人都是产品经理作者【赛博禅心】,微信公众号:【赛博禅心】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。
题图来自Unsplash,基于 CC0 协议。
页: [1]
查看完整版本: ChatGPT 更新了内置模型:gpt