教育部发布的《大马教育文凭成绩分析报告》的国旗插图出现严重失误,引发热议。一间教室墙上悬挂的国旗出现两颗十四角星,而且只有八条红白条纹。这些插图都是以人工智能绘制的。
是的,人工智能正在悄然重塑我们的社会结构。从社交平台的推荐算法,到银行的信贷评估、医院的影像诊断,再到新闻网站的内容编排,AI技术正无声地渗透人类生活。
然而,AI技术的迅猛发展也带来了责任转移与系统性风险。过去几年里,我们已多次目睹AI犯错所引发的严重后果。这些错误并非出自恶意操作,也非政治偏见或歧视言论所致,而是源于AI系统本身的技术性缺陷。
一个典型案例是美国房地产平台Zillow的AI购房预测项目“Zillow Offers”。该项目原本旨在通过AI算法精准预测房价走势,从而进行房地产投资、获取差价利润。
然而,AI模型未能及时反映市场波动,公司因此大量收购高估值房产,最终导致巨额亏损,不得不裁员并在2021年关闭项目。
医疗领域亦曾遭遇类似情况。IBM曾斥资打造“Watson for Oncology”系统,希望借助AI辅助癌症治疗决策。但多项独立评估指出,该系统提出的治疗建议存在逻辑漏洞,甚至违背基本临床原则。最终,这个被寄予厚望的AI项目在2019年宣布终止服务。
类似技术误差并不局限于专业领域。2023年,谷歌在展示自身研发的AI聊天机器人Bard时,错误声称宣称詹姆斯.韦伯太空望远镜拍下了第一张系外行星图像。消息曝光后,母公司Alphabet市值在短短一天内蒸发逾1000亿美元。
在这些事件中,无论是公众、投资者、用户,还是患者,往往都是在系统看似正常运作的情况下受到伤害。即便AI并无主观恶意,其带来的后果依然可能极其严重。而目前,全球法律体系尚未建立起应对这类责任归属问题的完善机制。
在传统法律逻辑中,责任的判定往往基于主观意图与过失程度。医生误诊、工程师设计失误、编辑发布不当内容,皆可根据是否存在疏忽或故意行为加以追责。
但AI系统并无主观意识,它的行为无法以人类意图衡量。开发者也往往难以预知AI在特定情境下的判断依据。许多深度学习模型呈现“黑箱式”特性,连创建者也没有办法具体解释决策路径。
那么,当AI造成伤害时,究竟应由使用者、供应商,还是设计者承担责任?这项法律难题至今仍无共识。
伦理层面的讨论更是复杂。倘若AI介入公共事务决策,比如协助法官判刑、帮助政府评估社会援助资格,是否等同于将决定权交给一个不能追问与不能辩驳的程序?
更值得警惕的是,如果AI的决策不可解释(unexplainability),那么受影响者是否失去了基本的申诉权?这直接触及法治与民主社会的根基,即所有决策必须可追问、可辩驳、可复审。
令人欣慰的是,欧盟已率先通过《人工智能法案》(EU AI Act),设定AI应用的风险等级。对于高风险领域(如医疗、金融、执法),这项法案明确要求引入人工监督机制,并设立透明记录与安全评估体系。这些立法是国际社会值得效法的开端,也说明AI已不再是中性的技术工具,而是已经与公共利益紧密相连。
因此,笔者认为,政府亟需制定更明确的AI相关法规,尤其在公共机构如政府部门、医疗单位与教育系统广泛引入AI工具的背景下,更应建立起完善的事前评估机制与事后责任制度。
另一方面,在法律尚未完善之前,每一个使用AI的个体,包括政府官员、企业,到普通使用者都应提升AI素养,了解其限制与风险。更重要的是,媒体有责任理性引导民众对AI失误的认知,避免在技术错误发生时陷入情绪性反应或阴谋论漩涡。
《人类简史》作者哈拉里曾说过:AI无需具备意识,也可能毁灭人类文明。AI出错并不可怕,可怕的是社会毫无准备,不知如何应对。
人工智能无疑将继续渗透我们的生活各层面。我们不能只顾追求效率与便利,更应构建制度性的“减震器”,在AI出错时能及时缓冲、修复与追责。
科技不应凌驾于法律之上,也不能游离于伦理之外。在这个逐步迈向算法治理的时代,我们更需要打造可控、透明与负责任的AI。
这,才是让人类可以信任,让人类文明可以延续的智能未来。
要看最快最熱資訊,請來Follow我們 《東方日報》WhatsApp Channel.
