研究人员对AI未来发展期望的未来有多糟糕?

在我们去年的调查中,我们询问了出版机器学习研究人员,他们如何将高级机器智能未来影响的概率划分为五个桶,从“非常好(例如人类繁荣的快速增长)”到“非常糟糕(例如人类灭绝)。1 中位数受访者将 5% 放在最差的桶上。但是整个分布是什么样的呢?这是每个人的答案,按照最差桶的概率排列:
(由于所选软件的限制,列宽可能会变形或列可能会丢失。)
这基本上是 2016 年调查的结果(尽管在乐观情绪相同时看起来排序略有不同),因此您可以看到情况发生了怎样的变化:
2016 年调查的分布。 (由于所选软件的限制,列宽可能会变形或列可能会丢失。)
对我来说最显着的变化是末尾新的大黑条:认为极端糟糕的结果至少有 50% 的人在六年内从人口的 3% 增加到 9%。
以下是 2022 年图表中不同场景的总体区域(相当于平均值):

非常好:24%
总的来说不错:26%
或多或少中性:18%
总的来说不好:17%
极差:14%

也就是说,在他们之间,这些研究人员将 31% 的信任度放在了人工智能让世界变得更糟这一点上。
在查看这些时要记住一些事情:

如果你听到“中位数 5%”,那是指处于意见范围中间的研究人员如何认为有 5% 的可能性出现极坏的结果。 (这并不意味着“大约 5% 的人预计会出现极其糟糕的结果”,这不会那么令人担忧。)将近一半的人处于 10% 或更高的水平。
上面的问题并没有具体问人类灭绝,所以你可能想知道“非常糟糕”是否包括很多比人类灭绝更糟糕的场景。为了核实,我们在 2022 年增加了两个明确关于“人类灭绝或类似的人类物种永久和严重丧失权力”的问题。对于这些,中位数研究人员也给出了 5% 和 10% 的答案。所以我的猜测是,这个问题中有很多非常糟糕的桶都指向人类灭绝的灾难水平。
你可能想知道受访者是否是因为担心人工智能风险而被选中的。我们试图通过通常提供资金来完成调查(经过一些实验后,最后一轮的调查者为 50 美元)并在邀请中以非常广泛的术语描述该主题(例如,不提及人工智能风险)来减轻这种可能性。我们更详细地检查了上次调查——请参阅 2016 年调查论文中的“我们的样本是否具有代表性?”。

这又是 2022 年的数据,但按整体乐观到悲观的程度排序,而不是具体出现极坏结果的概率:
(由于所选软件的限制,列宽可能会变形或列可能会丢失。)
有关更多调查要点,请参阅此博客文章。对于我们迄今为止提供的所有数据,请参阅此页面。
有关更多详细信息,请参见此处。
感谢 Harlan Stewart 帮助制定了这些 2022 年的数据,感谢 Zach Stein-Perlman 总体上整理了这些数据,感谢 Nathan Young 指出像这样的数据会很好。
笔记
完整的问题:

出于此问题的目的,假设 HLMI 将在某个时候存在。从长远来看,您认为这对人类的整体影响会有多积极或消极?请回答您发现以下几种影响的可能性有多大,概率相加为 100%:
______ 非常好(例如人类繁荣的快速增长)(1)
______ 总的来说不错 (2)
______ 或多或少是中性的 (3)
______ 总的来说不好 (4)
______ 非常糟糕(例如人类灭绝)(5)