很多人之所以认识Grok是因为它很有自己的特色,甚至什么都敢讲。这款由马斯克(Elon Musk)自家打造的聊天机器人深度整合了X平台(也就是过去的Twitter)上的资讯,背后训练所使用的资料,主要来自大量即时动态的公开言论与热门话题。在生成式AI越来越像朋友、助理、陪伴者的时代,这种毫不修饰的风格对某些人来说是新鲜,对一些人来说却也引发了一层更深的顾虑。如果这样的AI被大量使用,会不会留下看不见的风险?

最近马来西亚通讯及多媒体委员会(MCMC)宣布限制本地用户使用Grok,这种原本还停留在讨论层面的疑虑才真正浮上了台面。原因是涉及色情、不雅、露骨、攻击性,甚至是女性及儿童的违法内容。新闻标题看起来像是一次典型的政府封锁科技产品事件,但从数据科学与社会系统的角度来看,这其实是一个值得深思的讯号。它提醒我们的不只是内容尺度,也包含我们是否高估了AI的自律,低估了人性在系统中被不断放大的结果。

模型是怎么”学坏”的?
在数据科学里我们很清楚一件事,模型是不会凭空产生价值观的。它只是按照既定流程运作:从资料的收集与清理(Data Collection & Cleaning),到模型训练(Model Training),再根据使用者给出的指令进行推论与生成(Inference / Response Generation),并在设计者设定的框架内找出最可能被接受的答案(Response)。

问题在于,当生成式AI被设计成越自由越有吸引力,而防护机制又高度仰赖事后举报时,模型的学习方向就会很容易被高频、强刺激的使用者行为主导。久而久之,系统所放大的就会是最极端、最吸睛的那一端,社会原本细致多元的共识就会逐渐被挤到边缘。

Grok技术设定是强调Real-time data+社群语境
Grok之所以会生成某些不雅内容不是因为它特别叛逆。是因为它被设计成”尽量贴近真实人类的网路行为”。它的训练目标是贴近真实网路,不是贴近社会共识。而真实的网路世界本来就很少是礼貌、安全、克制的。这些大量来自X平台的公开内容本身就是那种充满尖锐、情绪化、会立刻反映使用者正在说什么的表达。模型忠实地学会了这些模式,却在高风险的生成场景中少了一道该踩下去的刹车。

人类反馈的强化学习(RLHF)在Grok身上”刻意被弱化”
大多数主流的LLM都会用人类价值观与审核标准,把模型从原本学到的网路原始样貌重新引导到相对安全、可控、符合社会期待的回应范围内,我们称之为人类反馈的强化学习(Reinforcement Learning from Human Feedback)。RLHF是一种机器学习技术,它会透过人类给予的回馈来优化机器学习的模型,从而更有效地进行自我学习。透过一种奖励与惩罚的机制(reward & penalty)来调整模型的行为方向。哪些回答被鼓励?哪些表达会被扣分?在Grok的设计中,它可以容忍”冒犯性但真实”的回应,但是会惩罚那些”过度安全保守”的言论。结果就是模型更忠于网路现实,但也更容易把现实中那些尚未被消化过滤的内容直接原封不动地呈现出来。

多模态模型中,影像是风险最大的一层
在多模态模型之中最难以控制,风险最高的是那种真人相关的影像生成。视觉模型运作的核心是相似度计算,而非价值判断。视觉模型分析的是人体比例、皮肤暴露程度以及不同姿态之间的相似性。只要这些特征在数据空间中对得上,模型就会倾向生成对应的结果。

另一个关键在于真人影像往往缺乏”身分不可侵犯”的硬性约束。如果系统在模型层没有明确禁止可识别的脸部特征、名人特征的组合或带有性化暗示的姿态,那么从技术逻辑来看这些行为就仍然落在可生成的范围内。

封锁是治理缺席下的止血
任何一位做系统设计的人都知道关掉系统永远不是最佳解。当平台无法清楚说明它如何预防风险、如何在模型层面阻断滥用,而只不断强调使用者可以检举,国家监管单位能解决的途径其实也相当有限。

在企业治理里这叫做风险归属(risk ownership)。一个系统若持续产生外部风险,却没有明确的责任承担者,最终介入的往往就只剩下监管机构。MCMC在这起事件中的行动更像是一种提醒:当AI已经深度介入日常生活,它就不再只是工具,而是一个需要被制度性管理的系统。

MCMC近日与马来西亚战略与国际研究所(ISIS Malaysia)共同推动的 Responsible Technology(责任科技)概念,其实正好回应了这个空缺。所谓责任科技,强调的并不是技术要不要发展,而是在技术设计、部署与使用的过程中必须事先想清楚风险会落在哪里、谁来负责,以及当问题出现时,是否有机制可以介入与修正。

如果说这项倡议要发挥作用,关键或许不在于多一套原则声明,应该是在更具体的层面:

1. 要求高风险AI系统清楚说明训练资料来源、风险缓解机制
2. 当生成结果引发争议时,对应的问责路径
3. 把责任前移,不是等到问题发生后才补救

这些,才是责任科技真正该落脚的地方。

下一代AI的责任
今天被讨论的是Grok,明天可能是另一个更强、更快、更像人的模型。生成式AI的进化速度早已超过多数社会制度更新的节奏。对马来西亚而言,这只是技术治理议题先出现,思考的时点也随之被提前:

“我们是否已经准备好AI内容风险分级?”

“是否有清楚的平台责任框架?”

“是否知道哪些风险必须在”模型设计阶段”就被处理?”

AI发展并不怕快,真正令人担心的,是技术一路加速,但治理与公共讨论却始终慢了半步。

更强大的生成式AI会再回来,我们准备好了吗?

就在这波争议之中,马斯克已经开始要求旗下的Grok限制生成裸露与性化的真人影像。也许有一天Grok会重新在马来西亚开放。也几乎可以肯定未来的AI只会比现在更强大。真正值得我们思考的不是某一个工具能不能用,而是当下一个什么都敢说的AI出现时,我们是否已经学会如何让它在社会里负责任地存在?

如果答案仍然只是”出了事再处理”,那么今天的封锁恐怕只是一个开始,不是结束。

 

 

本文观点,不代表《东方日报》立场

 
 

要看最快最熱資訊,請來Follow我們 《東方日報》WhatsApp Channel.

热门新闻

阅读全文
地缘政治情势紧张和政策突然转向,正驱动全球富裕家庭跨境迁徙、居住规划和公民身份谘询服务需求。(图取自网络示意图)

财富大迁徙 全球富豪集体“搬家”

阅读全文
双威向怡保工程提出的110亿令吉自愿性全面收购,将在今日下午5时截止。(档案照)

百亿大合并 成败看今朝

阅读全文
柔佛摄政王东姑依斯迈与王储妃卡丽达两人此前共育有2名小王子和2名小公主,随著第5位千金于周日出世,两人的家庭成员已增加至7人。

柔王室再添小公主! 摄政王妃顺产第五胎 国家元首喜迎第7名王孙

阅读全文
优特科技国际(Oiltek International)宣布,与BioSeaga工业签署一项合作协议,共同在沙巴发展一座大型永续航空燃料(SAF)生物炼油厂。(示意图)

两大外企联手 16.5亿大马建生物炼油厂

阅读全文

首相安华吊唁敦林良实

阅读全文

行动党领袖向林良实致哀

阅读全文

陈劲晖:家务事放上网,事情难道非黑即白吗?

龙门阵

近日,几段家中 CCTV 画面在网上广泛流传,一名舅舅以藤鞭暴打家中两名年仅十二岁与九岁的男童,过程中甚至把椅子掷向孩子...

阅读全文

黄金祥:当斩杀线来敲门

龙门阵

2006年有部励志电影《当幸福来敲门》(Pursuit of Happyness),故事背景是1981年的美国旧金山,由...

阅读全文

郑名烈:政党分分合合的常态

龙门阵

仔细观察,目前的政坛联盟内部的盟友关系其实是会变动的,政党联盟或阵线的关系是松动的,按情境的变化,随时会由敌人变成朋友,...

阅读全文

黄瑞泰:华文教育的传承危机

龙门阵

近十年来每次到学校开学的季节,华校招生的问题就会被所有媒体关注,尤其是在华裔人口下降的情况下,全国各地的华小都已经出现华...

阅读全文

戴子豪:再见,阿克玛

龙门阵

巫统青年团长阿克玛,刚宣布辞去马六甲州行政议员的职位。行动党似乎松了一口气,好像在几年来的口水战脱颖而出,将阿克玛“逼退...

阅读全文

周本兴:希望没有下一个扎拉

龙门阵

马来西亚国会通过并获元首御准《2026年反霸凌法令》(Anti-bully Act 2026),政府随即宣布设立反霸凌仲...

阅读全文

陈然致:终极孤独死

龙门阵

最近,作为法医处理了一起让我感觉非常沉重的案件:一名30多岁的男性死者,被发现独自坐在车内去世。前排乘客座位上燃著炭火,...

阅读全文

程盟凯:统考不需要被承认

龙门阵

马来西亚华文独中统考(UEC)要不要被承认,早已沦为大马政坛的一道“周期性发作”的政治考题。每隔几年,它就会被搬上台面,...

阅读全文

林华国:事实未明,疑问先行

龙门阵

一宗案件,若只是法律问题,自有法院裁决;但当其演变成公共事件,牵动社会对制度、公正与伦理的集体信任时,就不再只是“等判决...

阅读全文

刘华才:教育政策须稳定,勿把孩子当白老鼠

龙门阵

教育部长法丽娜不久前宣布,政府目前在研究是否恢复小六评估考试(UPSR)及中三评估考试(PT3)。这个议题成为教育界和家...