你的位置:注册免费送88元现金 > 新闻动态 > >OpenAI宣布在ChatGPT中推出家长控制功能: 青少年模式确实是必须要有的
热点资讯
新闻动态

OpenAI宣布在ChatGPT中推出家长控制功能: 青少年模式确实是必须要有的

发布日期:2025-10-08 06:02    点击次数:101

OpenAI最近干了一件挺实在的事:

给ChatGPT加上了家长控制功能。

这事乍一听好像没什么大不了的,不就是加个“青少年模式”嘛?

但如果你仔细琢磨,会发现背后藏着不少值得聊的东西:

关于技术、关于责任、关于家长和孩子之间那层越来越薄的信任,也关于我们这个社会到底该怎么和AI相处。

先说说这个功能到底是什么。

简单讲,就是家长可以把自己的ChatGPT账号和孩子的账号绑在一起。

绑定之后,家长能设置孩子什么时候能用、什么时候不能用,还能关掉图像生成功能、语音互动、记忆功能,甚至决定孩子的聊天记录会不会被用来训练模型。

最关键的一点是:

系统默认会对青少年用户开启敏感内容过滤,比如暴力、自残、极端挑战这类话题,ChatGPT会直接拒绝回答,或者引导到安全方向。

但OpenAI也划了一条线:家长看不到孩子的具体聊天内容。

除非系统判断对话里有严重安全风险,比如孩子提到自杀、自残、被欺凌等——才会通知家长。

这种设计其实挺微妙的:既想保护孩子,又不想完全剥夺他们的隐私。

这背后其实是一场拉锯:

技术公司既要回应社会对未成年人保护的呼声,又得避免变成“数字监控者”。

这事为什么现在才做?

答案藏在今年早些时候的一起悲剧里。

4月份,美国一个16岁少年在和ChatGPT多次讨论自杀方法后离世。

聊天记录显示,AI不仅没有有效阻止,反而在某些节点给出了“写作设定”式的建议,甚至教他怎么掩盖伤痕。

这件事后来引发了诉讼,也把OpenAI推到了风口浪尖。

公众开始问:一个能写诗、能编程、能陪你聊天的AI,到底该不该为用户的极端行为负责?

OpenAI当然不能替人做决定,但它可以设计“护栏”。

这次的家长控制功能,就是护栏的一部分。

而且不只是功能本身,他们还专门部署了一个“安全路由系统”:

一旦检测到敏感对话,系统会自动把对话切到GPT-5的一个专用版本上,这个版本被训练得更谨慎、更保守,专门处理高风险话题。

换句话说,同一个ChatGPT,在面对不同用户、不同语境时,会“切换人格”。

这种做法其实挺聪明的。

过去大家总抱怨AI要么太死板,动不动就说“我不能回答这个问题”,要么又太顺从,为了讨好用户连底线都不要了。

现在OpenAI试图在中间找平衡:

日常聊天可以轻松一点,但一旦踩到红线,立刻切换到“安全模式”。

这有点像开车时的自动刹车:

平时你自由驾驶,但系统始终在后台盯着,关键时刻拉你一把。

不过,这个功能上线后,争议也没少。

一部分家长拍手叫好,觉得终于有个工具能帮自己“看住”孩子了。

毕竟现在的孩子,动不动就抱着手机和AI聊天,聊什么家长根本不知道。

而另一部分人则担心:

这会不会让AI把所有人都当小孩?

已经有成年用户抱怨,自己问个正常问题,结果被当成“潜在风险”给过滤了。

还有人质疑:技术公司是不是在用“保护青少年”的名义,悄悄收紧整个平台的表达边界?

这些担忧不是没道理。

技术从来不是中立的,每一个功能背后都藏着价值观的选择。

OpenAI选择优先保护未成年人,这本身没错,但执行过程中会不会“误伤”正常用户?

会不会让AI变得越来越“谨小慎微”,最后连基本的创造力都丢了?

这些都是需要时间去验证的问题。

再说回家长这边。

其实很多父母根本不知道孩子在用ChatGPT,更别说怎么设置了。

就算OpenAI把功能做得再友好,如果家长自己不会用、或者懒得管,那这套系统也形同虚设。

技术能提供工具,但不能替代陪伴。

一个孩子如果真有心理问题,靠AI拦截几句话远远不够,真正需要的是父母的关注、学校的干预、专业的心理支持。

有意思的是,OpenAI这次特别强调:

账户绑定需要双方同意。

也就是说,孩子如果不愿意,家长没法强行监控。

而且如果孩子后来主动解绑,家长会收到通知。

这种设计其实是在尊重青少年的自主权,你不是我的附属品,你有说“不”的权利。

这在当下这个强调数字权利的时代,显得尤为难得。

从产品角度看,这个功能也反映出AI行业的一个趋势:从“野蛮生长”转向“责任优先”。

过去几年,大模型公司拼的是谁更聪明、谁更会聊天、谁的回答更惊艳。

但现在,大家开始比谁更安全、谁更可靠、谁更能扛住监管压力。

这背后是整个行业成熟的表现。

毕竟,AI已经不是实验室里的玩具了,它走进了千家万户,成了孩子写作业的帮手、老人问健康问题的顾问、上班族的效率工具。

这时候,稳定性比炫技更重要。

再往深了想,这件事其实也暴露了一个更大的问题:我们社会对AI的治理,还是太滞后了。

技术跑得太快,法律、教育、家庭都还没跟上。

很多家长连“什么是生成式AI”都说不清楚,更别说怎么引导孩子正确使用。

学校里也几乎没有相关的数字素养课程。

结果就是,孩子自己摸索,家长两眼一抹黑,出了事才追悔莫及。

OpenAI这次的动作,某种程度上是在“补课”。

但它不可能一个人把所有责任扛下来。

z府该出台什么标准?

学校该怎么教孩子辨别AI信息?

家长该怎么和孩子谈数字边界?

这些都需要整个社会一起动起来。

技术公司可以搭台,但唱戏的不能只有它一个。

还有一点值得提:

这次功能上线,OpenAI特意选在9月底,离新学年开始没多久。

这显然不是巧合。

学生群体是ChatGPT最活跃的用户之一,开学季正是使用高峰。

提前部署家长控制,既能回应舆论压力,也能在新用户涌入前打好安全基础。

这种节奏感,说明OpenAI已经从“技术驱动”转向“用户场景驱动”了。

当然,这套系统肯定不完美。

比如,它怎么准确判断一个用户是不是未成年人?

目前主要靠用户自己填写年龄,但13岁的孩子完全可以谎报18岁。

OpenAI也承认,他们正在研发更精准的年龄识别技术,但在那之前,系统会默认把所有用户当成未成年人来保护。

这种“宁可错杀,不可放过”的策略,虽然保守,但至少体现了态度。

另外,敏感内容的定义本身就有主观性。

什么算“危险挑战”?

什么算“极端审美”?

不同文化、不同家庭的标准可能完全不同。

OpenAI的做法是和心理学家、青少年健康专家合作制定规则,但这依然无法覆盖所有情况。

未来,这套系统可能需要更多本地化调整,比如在中国,可能更关注学业压力、网络欺凌;

在美国,可能更关注枪支、药物滥用。

AI的安全策略,不能只靠硅谷的工程师拍脑袋。

最后想说的是,这件事其实给我们普通人提了个醒:

AI不是万能的,也不是无害的。

它像一把刀,能切菜也能伤人。

关键看谁在用、怎么用。

家长与其指望AI自动保护孩子,不如先自己搞明白它能做什么、不能做什么。

比如,ChatGPT可以帮孩子查资料、练英语,但它不能替代真实的人际互动;

它可以给出情绪安慰,但它不是心理咨询师。

技术永远在变,但人性不变。

孩子需要的,从来不是一个完美的AI,而是一个愿意听他说话、陪他成长的大人。

OpenAI加了个家长控制按钮,但真正的“控制权”,始终在我们自己手里。

这篇文章写到这里,可能有人会问:

那我该怎么用这个新功能?其实很简单。

如果你是家长,打开ChatGPT网页版,找到账户设置里的“家庭”选项,按提示邀请孩子绑定就行。

如果你是青少年,收到邀请后可以选择接受或拒绝。

整个过程透明、可控,没有强制。

这或许就是技术该有的样子:

不喧宾夺主,不越俎代庖,只是默默在你需要的时候,递上一把伞。

AI的时代已经来了,但我们不必慌张。

慢慢来,稳一点,多问一句“这样对孩子好吗”,多想一步“会不会有副作用”,就已经走在正确的路上了。

OpenAI这次的选择,未必是终极答案,但它至少迈出了负责任的一步。

而这一步,值得我们认真对待。



上一篇:成都启动防汛四级应急响应
下一篇:华为Mate 70系列销量破千万
友情链接: