人工智能(AI)近年来发展迅速,尤其是生成式大语言模型(LLM)如ChatGPT的崛起,更是彻底改变了我们与机器沟通的方式。然而,在这股AI浪潮之下,也浮现出一个越来越令人担忧的问题:AI决策“像黑盒”,我们不清楚它是如何得出一个答案的。
这不只是科学家的烦恼。对于企业、政府机构、甚至每一个使用AI产品的用户来说,如果AI无法解释自己的判断依据,那么我们该如何信任它?
举个例子,一个大型语言模型告诉你某个病患可能患有肺癌。问题是:它为什么会这样判断?是因为影像中有某种特征?还是因为病患的病史?又或者只是因为它在网络上看到类似例子?如果我们无法得知AI的“思考过程”,那它的判断便难以采信,甚至可能带来严重后果。
更棘手的是,LLM的输出带有非确定性(undeterministic)——同一个问题,多次提问可能得到不一样的答案。而它们往往无法提供一个明确的信心分数(confidence score)或解释支持,这进一步加剧了公众的疑虑。
可解释AI(Explainable AI)应运而生
为了让复杂的AI变得“可理解”,学界和业界正在积极推动可解释人工智能(Explainable AI, 简称XAI)。其中,两个广为采用的技术方法便是LIME(Local Interpretable Model-Agnostic Explanations)和SHAP(SHapley Additive exPlanations)。
LIME的工作原理就像“窥探黑箱”的显微镜。它不尝试去解析整个AI模型,而是聚焦于单一预测结果的局部区域,对输入数据稍作扰动,观察模型输出的变化,从而逆推出模型做出判断时关注了哪些特征。
举例来说,如果一个图像识别模型判断某张图是“猫”,LIME会让这张图的某些像素变暗或遮蔽,再看模型是否仍判断为“猫”。如果遮掉耳朵模型就改判为“狗”,说明耳朵这个特征很关键。
SHAP的灵感则来自博弈论中的“沙普利值”(Shapley Value)。它试图回答这个问题:每一个特征,在模型最终做出某个决定中“贡献”了多少?
SHAP对每个特征赋予一个定量的“解释值”,告诉我们比如“这个顾客之所以被预测为高风险,是因为信用评分低贡献了-0.3分、欠款金额高贡献了+0.4分”等。如此一来,即使是复杂的深度学习模型,其预测过程也能“翻译成人话”。
LIME和SHAP背后的理念其实很朴素:再复杂的AI,也必须向人类“解释清楚”自己的行为。
在医疗、金融、司法等高风险行业,这种解释能力不是加分项,而是合规与责任的前提。例如,一家银行如果因为AI模型拒绝了某个贷款申请人,就必须有办法说明“为什么拒绝”,否则就会面对法律与道德的双重质疑。
总结:从“智能”走向“可信”
未来的AI不仅要“聪明”,更要“可信”。
而“可信”的前提是“可解释”。
LIME与SHAP为我们打开了一扇窗,让我们得以窥见AI背后的推理路径,也让AI从“黑箱”逐渐走向“透明玻璃盒”。
对于每一个使用AI的组织而言,投资于可解释AI不仅是技术选择,更是责任担当。
唯有让AI“讲得明白”,人类才能真正放心地与AI同行。
要看最快最熱資訊,請來Follow我們 《東方日報》WhatsApp Channel.
