如何监管你的人工智能

尽管在过去几十年中人工智能领域取得了显着进步,但该技术一次又一次地未能兑现其承诺。人工智能驱动的自然语言处理器可以编写从新闻文章到小说的所有内容,但并非没有种族主义和歧视性语言。自动驾驶汽车可以在没有驾驶员输入的情况下导航,但不能消除愚蠢事故的风险。 AI 有个性化的在线广告,但时不时会严重错过上下文。
我们不能相信人工智能每次都能做出正确的决定。这并不意味着我们需要停止开发和部署下一代人工智能技术。相反,我们需要通过让人类主动过滤和验证数据集、维护决策制定控制或添加稍后将自动应用的指南来建立护栏。
智能系统根据输入复杂算法的数据做出决策,该算法用于创建和训练 AI 模型以解释数据。这使它能够自主“学习”和做出决策,并使其有别于仅在其创建者提供的程序上运行的工程系统。
但并非所有看似“智能”的系统都使用人工智能。许多是智能工程的例子,用于通过显式编程或让人类在机器人记录时执行动作来训练机器人。没有决策过程。相反,它是在高度结构化的环境中工作的自动化技术。
AI 对这个用例的承诺是使机器人能够在更加非结构化的环境中运行,真正从已经展示的示例中抽象出来。机器学习和深度学习技术使机器人能够在一次穿过仓库的行程中识别、拾取和运输一托盘罐头食品,然后对电视进行同样的操作,而不需要人类更新其程序来解决不同的问题。产品或位置。
构建任何智能系统的固有挑战在于,其决策能力仅与用于开发的数据集以及用于训练其 AI 模型的方法一样好。
没有 100% 完整、无偏见和准确的数据集。这使得创建本身没有潜在错误和偏见的 AI 模型变得极其困难。
考虑一下新的大型语言模型 (LLM) Facebook 及其母公司 Meta,最近向任何研究自然语言处理 (NLP) 应用程序的研究人员开放,例如智能手机和其他连接设备上支持语音的虚拟助手。该公司研究人员的一份报告警告称,新系统 OPT-175B“极有可能产生有毒语言并强化有害的刻板印象,即使是在提供相对无害的提示时也是如此,而对抗性提示是微不足道的。”
研究人员怀疑,人工智能模型是根据包括从社交媒体对话中获取的未经过滤的文本的数据进行训练的,无法识别它何时“决定”使用该数据来生成仇恨言论或种族主义语言。我完全赞扬 Meta 团队对他们的挑战持开放和透明的态度,并将该模型免费提供给希望帮助解决困扰所有 NLP 应用程序的偏见问题的研究人员。但这进一步证明,人工智能系统还不够成熟,也不够强大,无法独立于人类决策过程和干预而运作。
那么,如果我们不能信任人工智能,我们如何在降低风险的同时培育它的发展呢?通过采用三种实用方法中的一种(或多种)来解决问题。
一种方法是应用特定领域的数据过滤器,以防止不相关和不正确的数据在训练时到达人工智能模型。假设一家汽车制造商正在制造一辆配备四缸发动机的小型汽车,希望整合一个神经网络来检测发动机传感器和执行器的软故障。该公司可能拥有涵盖其所有车型的综合数据集,从紧凑型汽车到大型卡车和 SUV。但它应该过滤掉不相关的数据,以确保它不会使用特定于八缸卡车的数据来训练其四缸汽车的 AI 模型。
我们还可以建立过滤器,通过确认每个决定都会产生好的结果来保护世界免受错误的 AI 决定的影响,如果没有,则阻止它采取行动。这需要特定领域的检查触发器,以确保我们相信 AI 会做出某些决定并在预定义的参数范围内采取行动,而任何其他决定都需要“健全性检查”。
输出滤波器在自动驾驶汽车中建立安全运行速度范围,告诉 AI 模型,“我只允许你在这个安全范围内进行调整。如果您超出了该范围,并且决定将发动机转速降至 100 rpm 以下,则必须先咨询人类专家。”
开发人员将现有 AI 模型重新用于新应用程序的情况并不少见。这允许通过并行运行基于先前系统的专家模型来创建第三个护栏。主管将新系统的决策与以前系统的决策进行核对,并尝试确定出现任何差异的原因。
例如,一辆新车的自动驾驶系统在沿高速公路行驶时错误地从 55 mph 减速到 20 mph。假设以前的系统在相同情况下保持 55 mph 的速度。在这种情况下,主管稍后可以查看提供给两个系统的 AI 模型的训练数据,以确定差异的原因。但就在做决定的时候,我们可能想建议这种减速,而不是自动做出改变。
将控制 AI 的需求想象成类似于在孩子学习新事物(例如如何骑自行车)时需要照看他们。成年人作为护栏在旁边奔跑,帮助新骑手保持平衡并为他们提供做出明智决定所需的信息,例如何时踩刹车或让行人。
总而言之,开发人员有三种选择可以在生产过程中保持 AI 的正常运行:
但是,如果开发人员忘记仔细挑选数据和学习方法并为他们的 AI 模型建立可靠且可重复的生产流程,那么这些选项都将不起作用。最重要的是,开发人员需要意识到没有法律要求他们围绕 AI 构建新的应用程序或产品。
确保使用大量的自然智能,并问问自己,“AI 真的有必要吗?”智能工程和经典技术可能会提供更好、更清洁、更强大和更透明的解决方案。在某些情况下,最好完全避免人工智能。