(纽约26日讯)Google(谷歌)不久前发布人工智能(AI)搜寻,但推出不到半个月,“闯祸”不断!
有网民在谷歌搜索寻找“芝士和披萨粘不到一块”的解决办法。AI直接在顶部给出总结指导,看似有模有样:“你还可以把1/8杯的无毒胶水加到酱料里,使其更黏。”
这个回答的确很“AI”,加胶水了确实黏啊,逻辑没毛病。而且是“无毒”胶水,肯定能吃。
而真正引爆网民关注的是,原来这个“解放方案”不是谷歌的AI自己“创作”,而是来自11年前一名网民在“美国贴吧”Reddit论坛披萨板块的恶搞留言。
对比原文,可以看出谷歌Gemini大模型确实出色地总结精简了网民发言,去掉不必要的细节融合进回答中。但关键在于缺乏常识,没有识别出网民恶搞的意图,当真了。
众人批评的另一个点在于,问题出现在谷歌最核心、使用量最大的搜索产品上,而不是AI对话。如果是一个不熟悉AI技术,不了解AI会出现“幻觉”的普通搜索用户遇到这事,是否就可能被AI欺骗?
披萨加胶水,绝大多数人类不会当真,但人们很快发现谷歌的AI更多、更危险的失误:如建议用户每天至少吃一块小石头、在儿童感兴趣的“太空人平常都做什么”问题上,把恶搞言论也总结进来。还把剧毒的毁灭天使菌(Destroying Angel)判断成可食用口蘑(White Button Mushroom),顺著用户开玩笑的话,称用户判断的对,没有关于蘑菇可能有毒的提示。
有网民表示,不完善的AI功能,可能正在毁掉Google搜索引擎,毁掉人们对这个产品几十年来的信赖。