聊天机器人ChatGPT被广泛应用,被视为人工智能重大突破。OpenAI共同创办人苏茨克维表示,刚问世的GPT-4解释哏图(梗图)能力令他惊讶,期盼未来2年能增加AI可信度并落实安全防护。
根据中央社,绘图晶片大厂辉达(Nvidia)20至23日举办年度GPU技术大会(GTC),OpenAI共同创办人暨首席科学家苏茨克维(Ilya Sutskever)和辉达执行长黄仁勋进行深度对谈。
近期生成式人工智能(Generative AI)在ChatGPT聊天机器人问世后成为话题,黄仁勋昨天以人工智能的“iPhone时刻”形容AI时代的到来,如今他则以主持人角色登场,就现阶段语言模型具备的技能、安全防护、以及其未来可实现的成就,向苏茨克维发问讨教。
从事电脑科学和人工智能领域已有20年的苏茨克维回想2002年刚起步时,几乎没有人想过电脑可以模拟人类大脑进行深度学习,因此当时研究不乐观。2015年OpenAI刚成立时,研究人员只有100人,许多人是来自Google收购的DeepMind人工智能公司,团队起初也无法确信能推动计划。
OpenAI继去年底推出ChatGPT后,14日再推加强版的语言模型GPT-4,此模型在数学和律师考试等测验中,分数已胜过多数学生。
黄仁勋好奇两代模型最大差异。苏茨克维表示,GPT-4的可靠度更胜一筹,已不大会用愚蠢的方式回答问题。他对GPT-4解读哏图能力感到惊艳,完全知道“哏在哪里”。
多模态训练被视为重要突破
GPT-4透过更大量的文字和图像进行多模态训练被视为一项重要突破。苏茨克维指出,人类一生听到的词汇仅有约10亿个或更多一些,加上人类是视觉动物,亲眼看到颜色会更快理解红色比蓝色更接近橙色,因此对AI进行视觉训练可以加速学习并扩大应用。
苏茨克维说,GPT-4对文本的理解力变强,因此能够更精准预测文本中的下一个单词。以侦探小说为例,书中充满复杂的人物、事件、故事情节,但侦探最后收集所有线索,推敲出谁是凶手;这就好比GPT-4可以从理解大量的文本中去预测出下一个单词。
黄仁勋以使用者的角度发问说,这似乎代表GPT-4已有某种程度的逻辑推理能力。苏茨克维则表示,“还没有到达可以推理的水准”,团队会持续提升模型技能,但无法保证能到达多高的推理能力。
AI语言模型会产生幻想
苏茨克维说,现在AI语言模型还会产生幻想,犯下人类不会犯的错误,必须透过更多研究才能强化可靠性,也就是当它接收到压根没听过的知识,能够问清楚它不确定的地方,并且不会回应它所不知道的答案,“这是当前遇到的瓶颈”。
苏茨克维认为,唯有提高保真度和可信度,才能设定精确的“AI安全防护”,使这些AI模型遵循使用者预期的指令,不要执行不安全任务,这也是未来2年要提升的重要技术,如此一来AI才能被信赖,达到真正可用的标准。
尽管生成式人工智能还不完美,苏茨克维也无法预测未来能够到达什么境界、是否能解决诸多不确定性,但回首一路走来,苏茨克维最深感讶异是自己的信念被实现,经由更大量和更深度的数据训练,做到原本只是概念性的想法。
黄仁勋回应,与苏茨克维相识10年,训练的数据在此期间已扩大了100万倍,在电脑科学领域,的确是令人意想不到的成就。