在当今充满活力的科技领域,人工智能(AI)是备受关注的热门话题。人们纷纷猜测AI是否会取代人类工作岗位,然而,我们不能仅仅将其视为一个经济问题。AI的进步对于我们的社会产生了广泛而深远的影响,值得我们深入探讨。
AI在处理效率和计算能力方面表现出色,超越了人类的能力。然而,我们不能忽视AI在区分事实和虚构方面的局限性。从逻辑角度来看,AI缺乏创造力,无法真正创造全新的内容。它只能不断地重复、重新包装和重新表述已有信息,用不同的方式展现相同的概念。
有人或许会对此持不同意见,认为AI能够创作新的歌曲和歌词。然而,关键在于,AI的所谓“创新”实质上只是基于已有数据中的模式信息,对现有内容进行重新组合,才被认为所产生的输出是具有艺术性和创造力。然而,我们也可以质疑人类在创造性思维方面的真正能力,甚至争论人类的学习也是基于模仿演化的结果。
一个典型的例子是谷歌的人工智能项目Gemini,它在生成文本和图像回应方面一直备受争议。这明确地表明AI在准确区分事实和虚构方面存在困难。工程师们不断努力通过编程来纠正或缓解AI的输出,这也提醒我们需要关注的一点:随著AI在我们日常生活中的应用越来越广泛,我们接收到的信息也越来越受到规范化管理和操纵。
也许你还没有意识到,大型科技公司的AI生成特定输出,是因为它们准确地执行了创建者的特定意识形态。无论这种意识形态是激进和歧视性的,还是和平包容性的,甚至是看似奇怪不寻常的,通通都是在既定的设计框架内有意为之的。
换句话说,AI不仅仅是基本的分类和生成引擎,它的回应甚至也不完全是归纳性或生成性的简单结果。当然,不能否认在某种程度上这是必要的,因为规则和过滤器的存在能确保AI生成的回应符合用户的期望,避免失控或冒犯用户。
从法律的角度来看,AI的创建者也必须确保其行为不违反知识产权法或其他社会相关法律。然而,由于各种规则和过滤器的存在,AI的行为和产出实际上是被引导的结果。因此,AI绝对可以被用作一种有效的宣传工具,这一点需要被创建它们的公司以及监管它们的政府和机构所认识到。
长期以来,各国政府、社会上的企业和团体一直通过各种宣传方式来引导和控制目标群体,以达到特定的目的。无论是正面的和平、环保议题,还是带有负面煽动性情绪的宣传,都可以通过各种宣传方式对社会产生影响。
这也引出了人工智能在宣传中的本质问题,与社交媒体算法一样容易被操纵,而且更容易让用户相信AI产生的内容不仅是有效的假设,而且是广泛持有的观点,这比社交媒体的优势更加明显。例如,我们可以指示AI不评论某些社会议题,或者不希望人们看到或了解某些历史事件,这样就能有效地“删除”这些“不受欢迎”的信息,从而有效地隔离用户与这类信息的接触。
此外,由于人工智能本质上无法区分事实和真相,它只是基于接收到的信息并根据指令生成回应,这为歪曲真相提供了充分的空间。在极端情况下,人工智能甚至可以让世界相信完全虚构的谎言。
另外,人工智能使用的归纳法是一种从具体观察中得出一般结论的过程,但这并不足以成为充分的知识来源,因为事实的真相并不仅仅由频率或统计概率决定。通过精心编程和规则限制,信息可以被有意地篡改。在这种基础上,人工智能就可以被指导广泛地生成错误、虚假甚至恶意的信息,以便控制、破坏或引导公众舆论和知识的方向。
虽然人工智能不太可能像虚构电影中的反派角色一样反人类,但如果被滥用或操纵,它绝对具有误导和破坏我们生活的力量。在人工智能广泛应用并渗入生活的各个领域之前,各国当局需要应对这些挑战并制定保障措施,以确保人工智能能够在社会的最佳利益下得到合理使用。