近来,我一直为一件不时略过心头的事挂心──AI(人工智能),以及用井号标签(hashtag)来吸睛的社交媒体网络不会让我们的世界变得更美好。
反之,以井号关键字为主的社交媒体信息流,还有以标注(label)来训练的AI,很难让人放得下心。
时下最广泛应用的人工智能技术,亦即机器学习(Machine Learning)有三个主要的技术分支,那就是监督学习(Supervised Learning)、无监督学习(Unsupervised Learning),以及强化学习(Reinforcement Learning)。
前谷歌大脑主管暨前百度首席科学家吴恩达(Andrew Ng)在一篇2016年11月发表于《哈佛商业评论》的文章中指出,人工智能的最新进展几乎都是通过监督学习来达成的。
诚然,谷歌的子公司DeepMind以深度强化学习结合蒙特卡罗树搜索(Monte Carlo Tree Search)技术让人工智能系统在围棋领域中达到了人类望尘莫及的境界,然而强化学习现阶段只能在个别专精的实验领域中出类拔萃,却还没有取得如监督学习般广泛应用于大众商用产品的成就。
恐掉入二分法泥沼
2018年图灵奖共同得主约书亚‧本吉奥(Yoshua Bengio)也很好地解释了监督学习在培训智能系统时,优于无监督学习的层面。他表示,纯粹的无监督学习或自我监督学习(Self-supervised Learning)无法达到监督学习技术高层次模拟或代表世界(high level representation)的抽象表述。虽然监督学习技术只以标注(label)而非句子(sentence)来注释数据,但智能系统所获取的提示(hints)却是十分强大的。
我的疑虑是,如果我们最信赖的AI,主要是以特征来标注与解释真实世界的事物和动态,它会不会让我们掉入非此即彼的二分法;而不在标签(标注)范围内所能定义的,都被刻板地宣判为不合格、不入流,而直接被淘汰?
我担心,在未来,我们的后代在升学、就业时所可能面对的种种偏差和歧视,定夺他们命运的不只是演算法,更彻底露骨的解释是,他们的特质不在标签所列,他们不符合数据标签的要求。
标签决定了许多无辜者一身的际遇。在井号标签挂帅的社交媒体年代,以及人类用经过标注的数据来赋予AI智能的时代,人们会不会投机地以揣摩AI喜好的标注,以及填满时下最酷却也是最空洞的井号标签关键词来求生存、博出位?
用来训练AI的数据标签足以全面、客观、公允地解释这个多变、多面的动态世界吗?
别让AI测试人性
近10年来,虽然我们的资讯接收管道,日益从搜索引擎以及网页超链接(hyperlink)所引领的开放式、无边界的网际网络浏览,转换成全天候留守在需要注册登录、功能包罗万有的封闭式大型网络平台和超级应用程序(Super App)里;然而,不变的是,人们在网络和社交平台所遗留下的数码踪迹,已经开始成为算法用以分析、判断和标签一个人属性(正面、中性以及负面)的凭据。
据报道,有企业在搜索与物色空缺职位的候选人时,会以算法驱动的系统来审查他们在社交媒体平台的言行举止,以及网络上的记录。一些零工经济(gig economy)公司更是直接采用人工智能驱动背景检查公司所定期提供的更新报告,来决定聘用或开除零工经济工作者。
已经有越来越多的企业尝试以人工智能来评估人类应聘者的资历、个性、职务匹配度,以及获聘后的职位胜任概率等,包括应用影像拍摄系统配合自然语言处理(Natural Language Processing)技术,来分析求职者在面试时的表情、用词和语调等,然后自动下达结论应试者是否积极、诚挚、具备韧性,会否是填补空缺职位的称职人选等。
另外,网络上也开始出现了不少如何应对面试机器人的贴士,教导求职者和应试者如何利用人工智能算法偏爱的关键字来撰写求职履历,以及回答面试提问,以便获得自动招聘和面试系统的垂注。
我不是很确定这类自动化招聘和面试系统能否做出公允的判断。毕竟,有关人工智能招聘系统是以什么国籍、文化背景、肤色和性别人士的人力资源资料来培训和建模,将决定它是否具有广泛的代表性、会否呈现偏差。
我以为,我们理应让AI回归纯粹的数据分析学(data analytics),但别用AI来做未审先判的人力分析(people analytics)。底线是:永远别测试人性,你得到了答案,也失去了被测试之人的信任。
且让人有自由意志,别让AI算法为人类套上新时代的数码种姓制度(AI driven modern digital Caste System),或AI系统驱动的优越人种与拙劣人种的数码分级隔离政策(AI driven modern digital Apartheid System)。