所有权力都需要大叙述(grand narrative)来确立其合法基础以及正当性。譬如说,封建人治时代的君权神授;民主法治时代的天赋人权、社会契约论等。在数码时代,人工智能行使算法驱动自动化决策权力的依据,则是能够超越人类生、心理局限,杜绝人为偏见和偏差的翔实大数据。
数据驱动人工智能算法是否真的能够做到不偏不倚,近几年来一直备受质疑和争议,事因人类开发人员很可能通过所采集的数据、为数据所贴上的标注,甚至是编程逻辑,把私己的世界观,内置或转移到人工智能的数据模型里头。
在数据驱动人工智能的推崇者和利益相关者,费煞苦心为机器学习、深度学习,还有超大型自然语言处理模型寻找和建构不证自明的合法权力来源的大叙述之时,谷歌在2020年岁末以充满争议性的手法解职著名黑人女性人工智能伦理守则学者添霓·格布鲁(Timnit Gebru)这一举动,却打开了引发更多人关注数据驱动人工智能模型偏差结论的潘多拉盒子。
或有内在缺陷
这或许是谷歌,以及所有致力推广大型数据驱动人工智能模型广泛应用者,所始料不及的。
综合媒体的报道,添霓·格布鲁因2018年一篇与他人合撰的开创性论文而蹿红。该论文揭露面部识别软件对黑人女性有高达35%的错误率,而对白人男性几乎完全正确;这意味著使用这类系统最终可能导致女性和有色人种受到歧视。《麻省理工科技评论》高级记者珂灵(Karen Hao)在一篇特写中介绍格布鲁是AI伦理学研究领域备受尊崇的领军人物,她还共同创立了黑人进军人工智能领域的亲和力小组(Black in AI affinity group),并积极倡导科技行业的人才组成的多元性。记者珂灵也在同一篇文章中指出,格布鲁在谷歌所打造的团队堪称AI领域最为多元化的队伍之一,拥有许多顶尖专家,备受同行倾羡。
舆论普遍认为,添霓·格布鲁很可能是因为坚持以谷歌员工的名誉,参与发表一篇批判人工智能驱动大型语言模型技术的论文《随机鹦鹉的危险:语言模型会太大吗?》(On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?)而被开除。
这起风波所反映的矛盾,可能远比一家单纯科技公司内部的阶级和种族矛盾还要深刻──我们当前最热切追求与全力投资的AI技术是不是健全的,还是有难以被逆转的内在缺陷?
这几年来最风靡全球的自然语言处理模型如谷歌的BERT、由英伟达(Nvidia)研发的MegatronLM模型、微软(Microsoft)的Turing-NLG,甚至是OpenAI的GPT-2以及GPT-3都是以谷歌在2017年公布的Transformer语言模型(Transformer Language Model)为技术基石。
据报道,谷歌已经将Transformer驱动的BERT技术融入其搜索引擎中。而搜索一直是谷歌利润最丰厚的业务;仅在2020年第三季度,以搜索为主的互联网业务就为谷歌带来了263亿美元/1051亿令吉的销售额。
无论如何,一些研究显示包括BERT技术在内的语言模型,不但摆脱不了歧视有色人种以及女性的刻板偏见,而且还倾向耗能、耗电、耗数据,以至开发和维持成本昂贵,还有不利环境。
《麻省理工科技评论》(MIT Technology Review)曾揭露,一些超大型人工智能模型每一回合数据驱动训练的耗电量,相等于一户美国家庭50天的用电量总和。麻省理工学院所发布的研究结果更显示:一些时下最前沿人工智能模型训练过程的碳排放量,相近于从纽约往返三藩市机程的总碳排放量。
内置或移植偏见
另外,包括《连线》(Wired)以及《麻省理工科技评论》在内的媒体也一再的引用学者的研究论文来警惕,开发人工智能系统的人员可能会在建模的技术过程中,下意识的通过数据的采集和筛选、数据的标注,或编程等方式内置或移植自己的偏见。一些公共实验表明,这些本应绝对翔实、客观、杜绝人为偏见的系统,在与有色人种的互动中,往往产生偏差结论──一些专家学者倾向认为,这很可能肇因于少数族群和女性在创建这些系统的开发人员团队中,代表性不足。
问题是,许多企业王国和被看好的独角兽级初创公司,都是以类似的技术蓝本为融资的卖点。任何尝试揭露技术弱点,或不引用乐观的论点来描绘这项技术的耗能和耗数据短处可望被克服的做法,都会被视为对既得利益者的挑战和挑衅。《纽约时报》形容,添霓·格布鲁的离开,突显了谷歌内部直言不讳的员工们与精打细算的高层之间日益紧绷的关系。《纽约时报》认为,人们对谷歌为建立公平可靠的技术所做的努力也表示担忧──更可能对黑人技术人员和近年来告别学术界前往硅谷从事高薪工作的研究人员产生寒蝉效应。
近十年来由深度学习引领的数据驱动人工智能风潮,主要是在海量数据被数码化的大趋势下,所产生的高效模式匹配算法(highly effective pattern matching algorithm)。这演变是半导体、电子芯片、电脑硬体驱动的运算和贮存技术飞速进展的结果,也是人手一机、移动互联网高度普及化时代的间接产物,而不是实质科学原理的发现和应用的成就。
处于实验阶段
我的粗浅意见是,当前火红的数据驱动人工智能技术仍旧处于实验阶段,以及具体应用被持续优化的过程。所以我们不妨让它继续发挥工业流程自动化、商业应用客制化,和高效查找并梳理隐藏数据规律(hidden data pattern)的数码分析优势,但限制它涉足定夺人类命运和社会福祉的决策。这是因为这类技术目前仍就难以轻易摆脱基于性别、种族和其他特征的内置偏见,它或会让边缘化社群终身受制于代替公共决策单位行使公权力的算法(algorithm)。