担心生成式 AI(ChatGPT) 的 10 个理由

像 ChatGPT 这样的生成式 AI 模型非常好,以至于现在有些人声称 AI 不仅与人类平等,而且通常更聪明。他们以各种令人眼花缭乱的风格创作出精美的艺术品。他们炮制出充满丰富细节、想法和知识的文本。生成的工件千差万别,看似独一无二,很难相信它们来自机器。我们才刚刚开始发现生成式 AI 可以做的一切。
一些观察家喜欢认为这些新的 AI 终于跨过了图灵测试的门槛。其他人认为门槛并没有被轻轻地通过,而是被炸成了碎片。这种艺术是如此之好,以至于另一批人肯定已经走向失业线。
但一旦惊奇感消退,生成人工智能的原始明星力量也会消退。一些观察家把以恰到好处的方式提问作为一种运动,这样智能机器就会吐出一些空洞或错误的东西。有些人使用在小学美术课上流行的旧逻辑炸弹——比如要求一张晚上的太阳图片或暴风雪中的北极熊图片。其他人则提出奇怪的请求,以展示 AI 情境感知(也称为常识)的局限性。那些有这种倾向的人可以数一数生成式人工智能失败的方式。
以下是生成式人工智能的 10 个缺点和缺陷。这份清单读起来可能像酸葡萄一样——如果允许机器接管,作家将失去工作,这是嫉妒的涂鸦。称我为团队人类的小人类生根——希望 John Henry 继续击败蒸汽钻机。但是,我们不应该有点担心吗?
当 DALL-E 和 ChatGPT 等生成式 AI 模型创建时,它们实际上只是从训练集中的数百万个示例中创建新模式。结果是从各种来源提取的剪切和粘贴合成——当人类这样做时,也被称为剽窃。
当然,人类也可以通过模仿来学习,但在某些情况下,这种借鉴是如此明显,以至于会向小学老师告密。此类 AI 生成的内容由或多或少逐字呈现的大块文本组成。然而,有时,涉及的混合或合成足够多,以至于即使是大学教授小组也可能难以检测出来源。无论哪种方式,缺少的是唯一性。尽管它们光彩照人,但这些机器无法生产出任何真正新颖的东西。
虽然剽窃在很大程度上是学校的问题,但版权法适用于市场。当一个人窃取另一个人的作品时,他们就有可能被带上法庭,并处以数百万美元的罚款。但是人工智能呢?同样的规则适用于他们吗?
版权法是一门复杂的学科,生成人工智能的法律地位需要数年时间才能确定。但请记住这一点:当 AI 开始制作看起来足够好以让人类走上就业线的工作时,其中一些人肯定会花费他们新的业余时间提起诉讼。
剽窃和版权并不是生成式 AI 引发的唯一法律问题。律师们已经在为诉讼设想新的道德问题。例如,制作绘图程序的公司是否应该能够收集有关人类用户绘图行为的数据,然后将这些数据用于人工智能训练?人类是否应该因这种创造性劳动的使用而得到补偿?当前这一代人工智能的成功在很大程度上源于对数据的访问。那么,当生成数据的人想要分一杯羹时会发生什么?什么是公平?什么会被认为是合法的?
人工智能特别擅长模仿人类需要多年才能发展起来的那种智能。当一位人类学者能够介绍一位默默无闻的 17 世纪艺术家或以几乎被遗忘的文艺复兴时期的音调结构创作新音乐时,我们有充分的理由印象深刻。我们知道需要多年的学习才能发展出这种知识深度。当 AI 仅经过几个月的训练就可以完成这些相同的事情时,结果可能会非常精确和正确,但会遗漏一些东西。
如果训练有素的机器可以在装满数十亿条记录的数字鞋盒中找到正确的旧收据,它也可以了解关于像 Aphra Behn 这样的诗人的一切知识。您甚至可能认为机器是用来解码玛雅象形文字的含义的。 AI 可能看起来模仿了人类创造力中有趣和不可预测的一面,但它们并不能真正做到这一点。与此同时,不可预测性是推动创造性创新的动力。像时尚这样的行业不仅沉迷于变化,而且由变化来定义。事实上,人工智能有它的一席之地,过去来之不易的人类智慧也是如此。
说到智能,人工智能本质上是机械的和基于规则的。一旦 AI 研究了一组训练数据,它就会创建一个模型,而该模型并没有真正改变。一些工程师和数据科学家设想随着时间的推移逐渐重新训练 AI 模型,以便机器能够学会适应。但是,在大多数情况下,这个想法是创建一组复杂的神经元,以固定的形式对某些知识进行编码。恒常性有它的作用,可能适用于某些行业。人工智能的危险在于它将永远停留在其训练数据的时代精神中。当我们人类变得如此依赖生成式人工智能以至于我们无法再为训练模型生产新材料时会发生什么?
AI 的训练数据需要来自某个地方,而我们并不总是那么确定是什么卡在了神经网络中。如果 AI 从他们的训练数据中泄露个人信息怎么办?更糟糕的是,锁定人工智能要困难得多,因为它们被设计得非常灵活。关系数据库可以限制对包含个人信息的特定表的访问。不过,可以通过数十种不同的方式查询 AI。攻击者将很快学会如何以正确的方式提出正确的问题,以获取他们想要的敏感数据。例如,假设特定资产的纬度和经度被锁定。聪明的攻击者可能会在数周内询问该位置太阳升起的确切时刻。一个尽职尽责的 AI 会尝试回答。教 AI 保护私人数据是我们还不了解的事情。
即使是最早的大型机程序员在创造首字母缩略词 GIGO 或“垃圾输入,垃圾输出”时也理解了计算机问题的核心。人工智能的许多问题都来自糟糕的训练数据。如果数据集不准确或有偏差,结果将反映出来。
生成式 AI 的核心硬件可能像 Spock 一样是逻辑驱动的,但构建和训练机器的人却不是。偏见和党派偏见已被证明会进入 AI 模型。也许有人使用有偏见的数据来创建模型。也许他们添加了覆盖以防止模型回答特定的热键问题。也许他们输入了硬连线答案,然后很难检测到。人类已经找到了许多方法来确保人工智能成为我们有害信念的优秀载体。
原谅 AI 模型犯错很容易,因为它们在很多其他事情上做得很好。只是很多错误很难预料,因为人工智能的思维方式与人类不同。例如,许多使用文本转图像功能的用户发现 AI 会在相当简单的事情上出错,比如数数。人类很早就在小学学习基本算术,然后我们以各种方式使用这项技能。让一个 10 岁的孩子画一只章鱼,这个孩子几乎肯定会确定它有八条腿。当涉及到数学的抽象和上下文使用时,当前版本的人工智能往往会陷入困境。如果模型构建者对失误给予一些关注,这可能很容易改变,但还会有其他人。机器智能不同于人类智能,这意味着机器的愚蠢也会有所不同。
有时在没有意识到的情况下,我们人类往往会填补 AI 智能的空白。我们填写缺失的信息或插入答案。如果人工智能告诉我们亨利八世是杀害他妻子的国王,我们不会质疑,因为我们自己不了解那段历史。我们只是假设 AI 是正确的,就像我们在有魅力的主持人挥手时所做的一样。如果一个声明是有信心的,那么人类的头脑就会倾向于接受它是真实和正确的。
对于生成式 AI 的用户来说,最棘手的问题是知道 AI 何时出错。机器不能像人类那样撒谎,但这使它们更加危险。他们可以产生完全准确的数据段落,然后转向猜测,甚至公然诽谤,而没有人知道它发生了。二手车经销商或扑克玩家往往知道他们什么时候在捏造谎言,而且大多数人都会揭穿他们的中伤;人工智能没有。
数字内容可以无限复制,这已经使许多围绕稀缺性建立的经济模型变得紧张。生成式人工智能将进一步打破这些模型。生成式人工智能会让一些作家和艺术家失业;它还颠覆了我们赖以生存的许多经济规则。当广告和内容都可以无休止地重新组合和重新生成时,广告支持的内容是否有效?互联网的免费部分是否会陷入机器人点击网页广告的世界,所有这些都由生成人工智能精心制作并可以无限复制?
如此容易的富足可能会破坏经济的各个方面。如果可以永久复制,人们会继续为不可替代的代币付费吗?如果做艺术这么容易,它还会受到尊重吗?还会特别吗?如果它不特别,会有人关心吗?当一切都被视为理所当然时,一切都会失去价值吗?这就是莎士比亚所说的离谱命运的弹弓和箭的意思吗?我们不要试图自己回答。让我们向生成式 AI 询问一个有趣、古怪,并最终神秘地陷入对与错之间的某个阴间世界的答案。