gitweixin
  • 首页
  • 小程序代码
    • 资讯读书
    • 工具类
    • O2O
    • 地图定位
    • 社交
    • 行业软件
    • 电商类
    • 互联网类
    • 企业类
    • UI控件
  • 大数据开发
    • Hadoop
    • Spark
    • Hbase
    • Elasticsearch
    • Kafka
    • Flink
    • 数据仓库
    • 数据挖掘
    • flume
    • Kafka
    • Hive
    • shardingsphere
    • solr
  • 开发博客
    • Android
    • php
    • python
    • 运维
    • 技术架构
    • 数据库
  • 程序员网赚
  • bug清单
  • 量化投资
  • 在线查询工具
    • 去行号
    • 在线时间戳转换工具
    • 免费图片批量修改尺寸在线工具
    • SVG转JPG在线工具

月度归档3月 2023

精品微信小程序开发门户,代码全部亲测可用

  • 首页   /  2023   /  
  • 3月
  • ( 页面2 )
人工智能 3月 27,2023

研究人员对AI未来发展期望的未来有多糟糕?

在我们去年的调查中,我们询问了出版机器学习研究人员,他们如何将高级机器智能未来影响的概率划分为五个桶,从“非常好(例如人类繁荣的快速增长)”到“非常糟糕(例如人类灭绝)。1 中位数受访者将 5% 放在最差的桶上。但是整个分布是什么样的呢?这是每个人的答案,按照最差桶的概率排列:
(由于所选软件的限制,列宽可能会变形或列可能会丢失。)
这基本上是 2016 年调查的结果(尽管在乐观情绪相同时看起来排序略有不同),因此您可以看到情况发生了怎样的变化:
2016 年调查的分布。 (由于所选软件的限制,列宽可能会变形或列可能会丢失。)
对我来说最显着的变化是末尾新的大黑条:认为极端糟糕的结果至少有 50% 的人在六年内从人口的 3% 增加到 9%。
以下是 2022 年图表中不同场景的总体区域(相当于平均值):

非常好:24%
总的来说不错:26%
或多或少中性:18%
总的来说不好:17%
极差:14%

也就是说,在他们之间,这些研究人员将 31% 的信任度放在了人工智能让世界变得更糟这一点上。
在查看这些时要记住一些事情:

如果你听到“中位数 5%”,那是指处于意见范围中间的研究人员如何认为有 5% 的可能性出现极坏的结果。 (这并不意味着“大约 5% 的人预计会出现极其糟糕的结果”,这不会那么令人担忧。)将近一半的人处于 10% 或更高的水平。
上面的问题并没有具体问人类灭绝,所以你可能想知道“非常糟糕”是否包括很多比人类灭绝更糟糕的场景。为了核实,我们在 2022 年增加了两个明确关于“人类灭绝或类似的人类物种永久和严重丧失权力”的问题。对于这些,中位数研究人员也给出了 5% 和 10% 的答案。所以我的猜测是,这个问题中有很多非常糟糕的桶都指向人类灭绝的灾难水平。
你可能想知道受访者是否是因为担心人工智能风险而被选中的。我们试图通过通常提供资金来完成调查(经过一些实验后,最后一轮的调查者为 50 美元)并在邀请中以非常广泛的术语描述该主题(例如,不提及人工智能风险)来减轻这种可能性。我们更详细地检查了上次调查——请参阅 2016 年调查论文中的“我们的样本是否具有代表性?”。

这又是 2022 年的数据,但按整体乐观到悲观的程度排序,而不是具体出现极坏结果的概率:
(由于所选软件的限制,列宽可能会变形或列可能会丢失。)
有关更多调查要点,请参阅此博客文章。对于我们迄今为止提供的所有数据,请参阅此页面。
有关更多详细信息,请参见此处。
感谢 Harlan Stewart 帮助制定了这些 2022 年的数据,感谢 Zach Stein-Perlman 总体上整理了这些数据,感谢 Nathan Young 指出像这样的数据会很好。
笔记
完整的问题:

出于此问题的目的,假设 HLMI 将在某个时候存在。从长远来看,您认为这对人类的整体影响会有多积极或消极?请回答您发现以下几种影响的可能性有多大,概率相加为 100%:
______ 非常好(例如人类繁荣的快速增长)(1)
______ 总的来说不错 (2)
______ 或多或少是中性的 (3)
______ 总的来说不好 (4)
______ 非常糟糕(例如人类灭绝)(5)

作者 east
chatgpt 3月 26,2023

ChatGPT 有多受欢迎?第 2 部分:比 Pokémon GO 增长更慢

ChatGPT 报道的一个主要主题是其用户群的快速增长。一个普遍的说法是,它打破了记录,不到一周的时间就拥有了超过 100 万的用户,不到两个月的时间就拥有了 1 亿的用户。它似乎没有打破记录,但我确实认为 ChatGPT 的增长是一个异常值。
检查索赔
ChatGPT增长
据我所知,ChatGPT 在不到一周内拥有 100 万用户的说法的唯一来源来自 OpenAI 首席执行官 Sam Altman 的这条推文:

我看不出有任何理由强烈怀疑这是准确的,但请记住,这是一个有动机推销产品的人的不准确陈述,因此它可能是错误的或误导性的。
许多新闻媒体都报道了它在两个月内达到 1 亿用户的说法,这些媒体似乎都在 Similarweb 的数据中触底。我找不到详细的报告,但看起来他们在付费专区后面有更多数据。我认为暂时接受这种说法是合理的,但同样,它可能在某些方面与媒体报道的有所不同1。

我看到人们分享图表,显示各种应用程序和服务随时间变化的用户数量。这是一个相当夸张的例子:

这是一条令人印象深刻的曲线,它反映了一个值得注意的事件。但它缺少一些重要的数据和上下文。
关于这创下纪录的说法似乎源自投资银行瑞银 (UBS) 一位分析师的评论,他说“我们不记得应用程序以这种速度扩展”,我认为这是一个合理的、对冲的说法。更强烈的说法是它创造了一个彻底的记录,这似乎是误报。
其他应用程序的数据
我找到了除 Spotify2 以外的所有这些应用的每月用户数据。我还搜索了非常流行的应用程序列表,以寻找用户增长更快的好的线索。您可以在此处查看完整的数据集和来源。3 我在附录中提供了有关数据和我的方法的更多详细信息。
据我所知,该图表相当准确,但它缺少 Pokémon GO,后者速度要快得多。它还缺少 Instagram 的 Android 版本,这可以说是一个新的应用程序版本,并且在第一天就超过了 100 万。这是一张表格,总结了我能够找到的数字,按时间顺序列出:

比较 ChatGPT 和 Pokémon GO 的早期数字有点困难,因为我找不到 Pokémon GO 达到 1M 的天数或 ChatGPT 达到 10M 的天数,但 ChatGPT 似乎不太可能更快。
分析
按互联网用户数量扩展
在过去的几十年里,可以访问互联网的总人数一直在快速增长。此外,社交网站的发展使人们更容易彼此共享应用程序。这两者都应该让应用程序更容易传播。考虑到这一点,下面的图表显示了一段时间内使用每个应用程序的所有互联网用户的比例(注意对数纵轴):
几个应用程序随时间变化的每月用户数。纵轴是对数刻度。
总的来说,这些曲线的初始斜率似乎随着时间的推移而增加,这表明应用程序传播的速度不仅仅受互联网访问人数增加的影响。但是 Pokémon GO 和 ChatGPT 看起来就像不同高度的垂直线,所以这是另一个图表,显示了每个应用程序启动后的(对数)时间:
使用该服务的全球总人口中可以访问互联网的比例与服务推出后的天数。用户数量在 t=1 分钟时任意设置为 1
这非常清楚地表明,虽然 ChatGPT 是一个异常值,但它仍然比 Pokémon GO4 慢得多。
额外比较
我们可以做的另一个比较是与其他产品和服务进行比较,这些产品和服务被用户接受得非常快,以及它们的覆盖范围如何随着时间的推移而增加:

新发布视频在 24 小时内在 YouTube 上的观看次数为我们提供了一个参考点,让我们了解指向 Internet 上某些内容的链接传播和参与的速度有多快。与注册 ChatGPT 帐户相比,观看视频的门槛较低,这可能会给视频带来优势。此外,大概每个人有不止一个视图。我不知道这种影响有多大,但可能很大。
现场活动的按次付费销售,在这个 c对于格斗运动,是人们愿意在短时间内在家中使用的东西的参考点。付款比开户门槛更高,但营销和销售可以提前进行。
24 小时内的视频游戏销售,在某些情况下是数字下载,类似于按次付费,但似乎更直接类似于网站上的服务。我猜想视频游戏比 PPV 受益于更长的营销和预售期,但我不确定。

这是这些事情随时间变化的记录图,数据来自维基百科5,包含在数据电子表格中。每个点都是一个单独的视频、PPV 事件或游戏,我只包括那些创下 24 小时记录的点:
视频游戏、PPV 比赛、YouTube 视频和应用程序的前 24 小时内大多数销售、观看次数和用户的记录,以及应用程序第一周内用户的一些积分(显示为蓝色菱形)。每个数据点代表一个事件、游戏、视频或应用程序。仅包括其特定类别中的那些设置记录。

看起来非常流行的应用程序不如非常流行的视频游戏或视频那么受欢迎。我看不出可以从中得出强有力的结论,但我确实认为这是有帮助的背景。
其他注意事项
我怀疑 Pokémon GO 和其他视频游戏的营销优势是巨大的。我不记得在 Pokémon GO 发布之前看过它的广告,但我在它发布之前对有关它的新闻文章进行了简短的搜索,发现几个月前有很多炒作。在发布之前,我没有找到任何提及 ChatGPT 的新闻文章。这不会改变总体结论,即关于 ChatGPT 创下完全记录的说法是错误的,但它应该改变我们对它的看法。
ChatGPT 能够在没有任何营销的情况下击败大多数其他服务,这似乎是一件大事。我认为如果没有大量用户参与,很难向人们推销它的酷炫之处,但下一代 AI 产品可能不需要这样,因为人们已经意识到这项技术已经走了多远。考虑到这一点(以及围绕 Bing Chat 和 Bard 的炒作),我会勉强预测营销将在未来的版本中发挥更大的作用。
附录——方法和注意事项
我发现的大多数数字是针对每月用户的,或者在某些情况下是针对每月活跃用户的。我并不总是确定这两件事之间有什么区别。在某些情况下,我所能找到的只是每月应用程序下载量或年度下载量,我天真地认为这两者都严格大于每月用户。但无论如何,年度用户数量反映了长期增长,因此它们不应该影响结论。
假设指数增长,某些特定用户里程碑的天数是插值的。总的来说,我认为这不会对整个故事产生太大影响,但如果你需要知道精确的数字,你应该检查我的插值或找到更直接的测量值。没有一个数字是外推的。
在搜索数据时,我尝试使用 SEC 文件和公司公告等官方来源,或者使用看似信誉良好且拥有付费客户的第三方服务的测量值。但有时这些很难找到,我不得不使用不太可靠的来源,比如引用可疑的新闻报道或数据不完整的研究。
我没有打算以非常谨慎的方式产生非常可靠的数据。总的来说,这需要大约 1-2 个研究人员日的努力。鉴于此,我似乎可能犯了一些错误,但希望不会有任何破坏结论的错误。

作者 east
人工智能 3月 26,2023

让我们考虑放慢 AI 的速度

通过不制造厄运机器来避免厄运
如果你担心有人会建造一台机器来控制世界并消灭人类,那么一种反应就是尝试建造更多的机器来更早地控制世界而不破坏它,从而阻止毁灭性机器的征服.另一种或补充的反应是试图完全避免建造此类机器,至少在它们的世界末日倾向的程度是模棱两可的时候。
在我看来,后一种方法是一种至少值得考虑的基本和显而易见的事情,而且也有利于它,非常适合“不难想象在现实世界中发生的事情”这一类型。然而我的印象是,对于担心人工智能灭绝风险的人来说,“积极减缓 AI 进步”标题下的策略历来被驳回和忽视(尽管“不积极加快 AI 进步”很受欢迎)。
这些年来我附近的谈话感觉有点像这样:

有些人:人工智能可能会杀死所有人。我们应该设计一个完美善良的上帝般的超级人工智能来防止这种情况发生。
其他:哇,这听起来非常雄心勃勃
有些人:是的,但这非常重要,而且我们非常聪明,所以我知道它可以工作

有些人:好吧,这很难,我们放弃了
其他人:哦,难道我们不应该尝试阻止这种危险的 AI 的构建吗?
有些人:嗯,那会涉及到协调很多人——我们可能会自大到认为我们可以建造一个可以接管世界并将其改造为天堂的神机,但我们不是妄想

这对我来说似乎是一个错误。 (最近,对其他一些人来说。)
对于是否应该在“尝试放慢某些 AI 研究”的范围内做任何事情,我没有强烈的看法。但我认为 a) 天真的第一次猜测应该是一个很强的“可能”,并且 b) 在这个巨大的干预空间中注销所有内容之前应该进行适当的思考。而通常的试探性答案似乎是“当然不是”,然后似乎会回避该主题以进行进一步思考。 (至少根据我的经验——人工智能安全社区很大,对于我在这里所说的大多数事情,不同的部分可能会有不同的体验。)
也许我最强烈的观点是,人们不应该对这些不同类别的干预应用如此不同的雄心标准。喜欢:是的,在减缓 AI 进展以取得良好效果方面似乎存在很大困难。但在技术调整中,艰巨的挑战与艰巨的努力的热情相得益彰。并且非常不明显的是,这里的难度远大于设计可接受的安全版本机器所涉及的难度,这些机器能够在世界上任何其他人设计危险版本之前接管世界。
在过去的几个月里,我一直在和人们谈论这个问题,并且积累了很多不试图放慢 AI 速度的理由,其中大部分我都想至少讨论一下。我的印象是,现实生活中的争论恰逢人们转向我的观点。
快速说明
首先,为了避免误解——

我认为“减缓危险的 AI”包括以下任何一种:降低 AI 总体进步的速度,例如如果人工智能的一般资金减少,就会发生这种情况。将人工智能的努力从更直接导致风险结果的工作转移到其他工作,例如如果对非常大的 AI 模型存在广泛关注,并且人员和资金转移到其他项目,则可能会发生这种情况。停止工作类别,直到对其安全性有足够的信心,例如如果 AI 研究人员同意某些系统会带来灾难性风险,并且不应该开发,直到它们不被开发,就会发生这种情况。 (这可能意味着某些系统的永久终结,如果它们本质上是不安全的。)(所以特别是,我包括了直接目标是一般缓慢的行为,以及目标是在特定开发之前需要安全的行为,这意味着进度较慢。)
我确实认为这些东西的某些版本受到了认真的关注,通常以其他名称命名。我看到人们在考虑“差异化进步”(上图 b),并制定协调战略以在未来某个时候(例如在“部署”时)减慢 AI 的速度。而且我认为很多考虑都是为了避免主动加速人工智能的进步。我要说的是缺少的是,a) 现在考虑积极努力减缓 AI,以及 b) 直接射击以“减缓 AI”,而不是畏缩不前,只考虑在另一个概念化下出现的例子(也许这是一个不公平的诊断)。
AI Safety 是一个大社区,我只见过一个人进入它的窗口,所以也许情况有所不同,例如在直流电,或不同在伯克利租用对话。我只是说,在我这个世界的角落里,对此不感兴趣的程度是值得注意的,而且在我看来是误判了。

为什么不放慢人工智能?为什么不考虑呢?
好吧,如果我们暂时假设这个话题值得思考,我们会怎么想?放慢人工智能是个好主意吗?有充分的理由解雇它吗?
Scott Alexander 不久前写了一篇帖子,提出了不喜欢这个想法的理由,大致如下:

你想输掉一场军备竞赛吗?如果 AI 安全社区试图放慢速度,它将不成比例地减缓美国的进步,然后其他地方的人将快速前进,并成为其能力决定世界是否毁灭的人,其价值观决定未来的人如果有一个。同样,如果 AI 安全人员批评那些为 AI 进步做出贡献的人,那多半会让最友好、最细心的 AI 能力公司望而却步,鲁莽的会先得逞。
人们可能会考虑“协调”以避免这种病态的竞争。但与整个世界协调任何事情似乎都非常棘手。例如,有些国家幅员辽阔、令人生畏,难以与之交谈。
鼓动缓慢的 AI 进展是对 AI 能力人员的“背叛”,他们是 AI 安全社区的好朋友,他们的友谊对于确保 AI 实验室认真对待安全(以及非工具性可爱)具有战略价值! 嗨 AI 能力的朋友们!)。

我听到的其他意见,我将讨论其中的一些:

减缓人工智能的进步是徒劳的:尽管你付出了所有努力,但几年后你可能就会死去
基于说服人们人工智能风险是一个问题的协调是荒谬的雄心勃勃。要让 AI 教授相信这一点几乎是不可能的,更不用说真正的人类了,你需要说服大量的人。
我们要做什么,建立强大的 AI 永不死亡,当地球被太阳吞噬时?
如果 AI 进展迅速,实际上对安全性更好。这可能是因为 AI 能力工作得越快,AI 的进展就会越顺利,而这比周期的持续时间更重要。或者现在加快进度可能会迫使未来的进度相应变慢。或者因为在构建具有相关风险的 AI 之前完成安全工作可能会更好,在这种情况下,最好的策略可能是尽可能接近危险的 AI,然后停下来进行安全工作。或者,如果提前进行安全工作毫无用处,也许延迟可以,但没有什么好处。
减缓 AI 速度的具体途径是不值得的。例如,避免从事 AI 能力研究是不好的,因为它对学习对齐工作的道路非常有帮助。从事 AI 能力工作的 AI 安全人员可以成为这些公司做出更安全选择的力量。
先进的人工智能将足以帮助解决其他存在风险,从而代表整体存在风险的净降低。 1
监管机构对高级人工智能的本质一无所知(部分原因是它不存在,所以每个人都对此一无所知)。因此,他们将无法对其进行有效监管,也无法带来预期的结果。

我的印象是,对于这种注意力分配,还存在一些不那么认可或不那么利他或更愚蠢的动机。在与人们谈论这件事时至少出现过一次,或者似乎正在发生的一些事情:

先进的人工智能可能会带来多种奇迹,例如长寿有增无减。晚一点到达那里对子孙后代来说很好,但对我们这一代人来说,这可能意味着像我们的祖先在乌托邦永恒的风口浪尖上所做的那样死去。这将是非常令人失望的。对于一个真正相信未来的人来说,可能会倾向于寻找最好的场景——人类及时建立强大、安全的人工智能来拯救这一代人——而不是我们自己不可避免地丧生的场景。
有时,那些衷心感谢技术迄今为止所带来的繁荣的人会发现,在这里肤浅地站在卢德主义一边是痛苦的。
弄清楚思维是如何运作得足够好以从数学中创造出新的思维是一个非常深入和有趣的智力项目,参与其中感觉是正确的。很难直觉地觉得一个人不应该这样做。(插图来自现代计算强化学习的联合创始人:)

这将是有史以来最伟大的智力成就。科学、工程和人文学科的成就,其意义超越人类、超越生命、超越善恶。—理查德·萨顿 (@RichardSSutton) 2022 年 9 月 29 日

考虑会使您与他人发生冲突的项目会让您感到不舒服。提倡更慢的 AI 感觉就像试图阻碍别人的项目,这让人感觉具有对抗性,并且感觉它有更高的负担的证据,而不仅仅是做你自己的事情。
“Slow-down-AGI”将人们的想法发送到例如工业破坏或恐怖主义,而不是更无聊的课程,例如“为实验室制定何时暂停部署模型的共同规范的游说”。可以理解,这鼓励尽快放弃这个想法。
我的弱猜测是,一般来说,人工智能风险思维中存在一种偏见,任何不为零的力量都被认为是任意强烈的。就像,如果存在代理存在的压力,就会任意快速地出现任意代理的东西。如果有反馈回路,它会任意强。在这里,如果 AI 不能永远停滞不前,那么它基本上是零时间。如果一项法规不能阻止每一个危险的项目,那么它就毫无价值。面对对 AI 无所不能的经济激励,任何对危险 AI 的有限经济抑制都算不了什么。我认为这是一个不良的心理习惯:现实世界中的事物往往归结为实际的有限数量。这很可能是一个不公平的诊断。 (我不打算稍后讨论这个;这就是我要说的。)
我感觉到一种假设,即放慢一项技术的进步将是一种激进的、闻所未闻的举动。
我同意 lc 的观点,该主题似乎存在准禁忌,这也许可以解释很多未讨论的内容,但仍需要对其进行解释。我认为这表明对不合作的担忧起到了一定的作用,对于将放慢 AI 速度视为主要涉及反社会策略的想法也是如此。

我不确定这是否能完全解决为什么 AI 安全人员没有考虑进一步降低 AI 速度的原因,或者人们是否应该尝试这样做。但我的感觉是,上述许多理由至少有些错误,动机有些误导,所以我想反过来争论很多,包括论点和模糊的动机主题。
提案的普遍性
克制不激进
似乎有一种普遍的想法认为,技术是世界必须走的一条不可避免的道路,试图放慢或避开其中的任何一部分都是徒劳和极端的。

2
但根据经验,世界并不追求每一种技术——它几乎不追求任何技术。
糟糕的技术
首先,有很多机器没有制造压力,因为它们没有价值。考虑一台向你的眼睛喷屎的机器。我们可以在技术上做到这一点,但可能没有人建造过那台机器。
这似乎是一个愚蠢的例子,因为没有任何严肃的“技术是不可避免的”猜想会声称完全毫无意义的技术是不可避免的。但如果你对 AI 足够悲观,我认为这是正确的比较:根据我们的最佳理解,如果有一些 AI 如果被创造出来会给它们的创造者带来巨大的净成本,那么它们至少与制造它们一样无用作为“在你眼中喷屎”的机器。我们可能会由于错误而意外地制作它们,但并没有某种深层的经济力量拉动我们制作它们。如果不结盟的超级智能在你要求它做一件事时很有可能摧毁世界,那么这就是它所在的类别,它的设计只是在废料堆中腐烂并不奇怪,喷着狗屎的机器在你的眼中和在道路上传播鱼子酱的机器。
好吧,但也许相关参与者非常坚定地认为未结盟的超级智能是否是​​部署的好东西是错误的。或者你可能认为情况不会立即那么可怕,并且构建具有生存风险的 AI 确实对做出决策的人有好处(例如,因为成本不会在一段时间内到来,而且人们非常关心相对于科学成功的机会到未来的一大块)。如果明显的经济激励很大,那么技术是不可避免的吗?
极具价值的技术
在我看来不像。以下是一些我认为具有巨大经济价值的技术,出于对安全或伦理的担忧3,研究进展或吸收似乎比它可能的要慢得多:

大量的医学研究,包括真正重要的医学研究,例如尽管全球每年有 500,000 人死亡,但 FDA 从 70 年代到 2000 年代禁止对链球菌 A 疫苗进行人体试验。在 covid 疫苗经过所有适当的试验时,也有很多人死亡。

各种遗传学事物:食物的基因改造、基因驱动、早期重组 DNA 研究人员著名地组织了一项暂停,然后是正在进行的研究指南,包括禁止某些实验(参见 Asilomar 会议)
核武器、生物武器,也许还包括化学武器(或者这些可能根本没用)
各种人类生殖创新:人类克隆、人类基因操纵(具有经济价值的技术的一个显着例子是 to 如果这些国家之间没有明确的协调,我的知识几乎不会在不同国家之间传播,即使这会使这些国家更具竞争力。有人在中国的婴儿身上使用 CRISPR,但因此入狱。)

很多关于人类的科学?我最近进行了这项调查,并被提醒道德规则对于即使是令人难以置信的无害研究也是多么的阻碍。据我所知,欧盟现在规定在欧盟收集数据是非法的,除非你承诺从任何可能到达的地方删除数据,如果给你数据的人在某个时候希望这样做的话。总之,处理这个和 IRB 相关的事情可能增加了项目一半以上的工作量。似是而非,我误解了这些规则,但我怀疑其他研究人员比我更擅长弄清楚它们。
可能有来自被认为令人反感或令人尴尬的领域的例子,但作为局外人很难判断哪些领域是真正没有希望的,哪些被错误地认为是无望的。如果在那些被认为有吸引力的人中存在具有经济价值的健康干预措施,我想与没有以这种方式受损的类似有前途的技术相比,具有良好声誉的科学家发现和追求它们的速度要慢得多。对智力的科学研究显然因耻辱而放缓,但我不太清楚经济上有价值的结果是什么。
(我想这个列表中可能还有很多其他的东西,但我现在没有时间回顾它们。这个页面将来可能会收集更多。)

在我看来,故意放慢技术进步以留出时间进行甚至可能过度谨慎的行为是司空见惯的。 (这只是在审视因谨慎或道德问题而放慢速度的事情——可能还有其他原因让事情放慢。)
此外,在没有人特别试图放慢速度的有价值的技术中,进展被相对较小的障碍大幅放慢似乎很常见,这进一步证明了经济力量缺乏压倒性的力量。例如,弗莱明 (Fleming) 于 1928 年首次注意到霉菌对细菌的影响,但直到 1939 年,才有人认真、认真地尝试将其开发为药物。

4

此外,在这些事件发生之前的数千年里,许多人多次注意到霉菌、其他真菌或植物抑制了细菌的生长,但并没有充分利用这一观察结果,以至于它在 1920 年代不被视为新发现。与此同时,人们死于感染是一件大事。 1930 年,每年约有 300,000 名美国人死于细菌性疾病(约 250/100k)。
我的猜测是,人们对技术做出了真正的选择,而且他们是在面对比通常想象的要弱的经济力量时这样做的。
克制通常不是恐怖主义
我认为人们在想到“减缓 AI”时,从历史上看都会想象一些奇怪的事情。我认为他们的核心形象有时是恐怖主义(可以理解,他们不想考虑太久),有时是某种难以置信的乌托邦式全球协议。
以下是“减缓 AI 能力”的其他一些事情(执行每个事情的最佳人选各不相同,但如果你不是那个人,你可以与是的人交谈):

不主动转发 AI 进展,例如将你的生命或数百万美元投入其中(这通常已经被认为是)
试图说服研究人员、资助者、硬件制造商、机构等,他们也应该停止积极转发 AI 进展
尝试让这些人中的任何一个停止主动转发 AI 进展,即使他们不同意你的观点:通过谈判、付款、公开谴责或其他积极的方式。
尝试向世界传达人工智能正走向严重危害的信息。如果人工智能的进步受到广泛谴责,这将影响无数决策:工作选择、实验室政策、国家法律。要做到这一点,例如制作令人信服的风险演示,煽动对风险行为的污名化,写科幻小说来广泛和令人回味地说明问题(我认为这在过去实际上是有帮助的),上电视,写评论文章,帮助组织和授权已经关心的人,等等。
帮助组织那些认为他们的工作可能会造成毁灭性后果的研究人员,让他们采取协调一致的行动来避免这样做。
将 AI 资源从危险的研究转移到其他研究。将投资从导致大量但知之甚少的能力的项目转移到导致理解这些事情的项目,例如缩放前的理论(参见一般差异技术发展5)。
为 AI 研究人员和实验室制定具体的预防措施,以应对不同的明确定义的未来情况,Asilomar Conference s风格。这些措施可能包括由特定方或方法进行更严格的审查、修改实验或完全暂停调查。组织实验室来协调这些。
减少 AI 的可用计算,例如通过生产和贸易监管、卖方选择、采购计算、贸易策略。
在实验室,选择会减慢其他实验室速度的策略,例如减少对公共有益的研究成果
改变出版制度和激励措施以减少研究传播。例如。期刊核实研究结果并在不提供任何细节的情况下发布其发表的事实,保留研究优先级的记录以供日后发布,并分配参与资金。 (这就是 Szilárd 和他的同事如何安排缓解 1940 年代帮助德国的核研究,但我不确定是否使用了补偿性资助的想法。6)
上述行动将通过科学家、或资助者、或立法者、或实验室、或公众观察员等做出的选择来采取。与这些各方沟通,或帮助他们采取行动。

协调不是奇迹般的世界政府,通常协调的共同形象似乎是明确的、集中的、涉及世界上每一方的,就像在囚徒困境中合作:激励在任何时候都促使每个理性的一方背叛,但可能是通过道义论的美德或复杂的决策理论或强有力的国际条约,每个人都设法不背叛足够多的摇摇欲坠的时刻来寻找另一种解决方案。
这是一种可能的协调方式。 (而且我认为不应该被视为如此绝望——世界实际上已经在一些令人印象深刻的事情上进行了协调,例如核不扩散。)但是如果你想要的是让很多人同时做一件事,当他们可能做了另一个,那么有很多方法可以实现。
考虑其他一些协调行为的案例研究:

不吃沙子。整个世界协调起来几乎不吃任何沙子。他们是如何管理的?实际上,吃沙子几乎不符合任何人的兴趣,因此仅仅保持足够的认识论健康就可以让这一点得到广泛认可。
避免人兽交:可能有些人认为人兽交是道德的,但不要以为从事兽交会冒着巨大的耻辱感。因此,世界在做很少的事情上协调得很好。
在街上不穿维多利亚时代的服装:这很相似,但不涉及道德上的责备。历史服饰可以说通常比现代服饰更具美感,但即使是强烈同意的人也发现一般情况下穿它是不可想象的,并且除非有“借口”(例如特殊派对),否则他们会竭力避免穿它。这是对看似无处不在的激励(为了更好看)的一种非常强大的协调。据我所知,它在很大程度上是由“未完成”这一事实提供动力的,否则现在会很奇怪。 (这是一个非常通用的机制。)
政治正确性:公共话语对于可以说什么有很强的规范,这似乎并不是源于绝大多数人对此表示同意(如兽交所说)。关于什么是政治正确的新观点有时会广泛传播。这种协调行为似乎大致是由于社会惩罚的分散应用,既来自支持者的核心,也来自因不惩罚他人而害怕受到惩罚的人。然后也可能来自那些担心不遵守现在看来是其他人的行为规范的人。这与上面的示例不同,因为它似乎可以持续存在,即使只有极少数人同意规范的对象级原因。如果不倡导规范会让你被拥护者公开羞辱,那么你可能会倾向于倡导它,从而给其他人带来更大的压力。

这些都是非常广泛的行为协调案例,没有一个涉及囚徒困境类型的情况,或者人们做出明确的协议,然后他们有动机打破。它们不涉及大型多边协议的集中组织。协调行为可能来自每个人出于相关原因而单独想要做出某种选择,或者来自人们想要做他们周围的人正在做的事情,或者来自分布式行为动态,例如惩罚违规行为,或者来自在思考一个主题时的协作.
你可能认为它们是与 AI 关系不大的奇怪例子。我认为,a) 重要的是要记住人类群体行为中实际出现的大量奇怪的动态,并且不要在一个除了囚徒困境和有约束力的承诺之外什么都耗尽的世界里对 AI 进行理论化,并且 b) 以上内容实际上是这里所有潜在的相关动态。
如果 AI 实际上在我们的有生之年构成了巨大的生存风险,那么它是 n对任何特定个人来说都是坏事,那么理论上的情况看起来很像“避免吃沙子”的情况。如果一个理性的人只是独自一人并且没有面临任何类型的多代理情况,那么这是一个理性的人不想采取的选择。如果 AI 有那么危险,那么不采取这种次等选择可能很大程度上来自于一种像良好信息分发一样简单的协调机制。 (你仍然需要与非理性的人和价值观不同寻常的人打交道。)
但是,即使无法通过对情况的无处不在的洞察力协调谨慎,其他模型也可能奏效。例如,如果人们开始普遍担心 AI 研究不好,那可能会通过与上述类似的机制,大大减少对它的参与,超出关注的人群。或者它可能会产生广泛的地方法规,强制执行任何被认为可以接受的行为。这种监管不需要在世界范围内集中组织以服务于协调世界的目的,只要它在不同的地方相似地成长即可。这可能会发生,因为不同的地方有相似的利益(所有理性的政府都应该同样担心失去权力给目标无法验证的自动权力寻求系统),或者因为——与个人一样——存在支持非-集中方式。
军备竞赛模型及其替代方案
好吧,也许原则上你可能希望协调不要做自我毁灭的事情,但实际上,如果美国试图放慢脚步,中国或 Facebook 或其他不那么谨慎的人会不会接管世界?
从博弈论的角度来说,让我们更加小心我们正在玩的游戏。
军备竞赛
理论上什么是军备竞赛、游戏?在我看来,这是一个重复的囚徒困境。每一轮看起来像这样:

玩家 1 选择一行,玩家 2 选择一列,结果收益列在每个单元格中,{玩家 1,玩家 2}
在这个例子中,制造武器需要一个单位。如果任何人在回合结束时拥有比其他人更多的武器,他们将拿走他们所有的东西(十个单位)。
在单轮游戏中,制造武器总是比不制造武器更好(假设您的行为不会对对手的行为产生影响)。从这场比赛中摆脱出来总是更好的。
如果您认为 AI 构成毁灭世界的巨大风险,这与当前 AI 的情况不太一样。
自杀竞赛
一个更接近的模型:同上,除非有人选择建造,否则一切都会被摧毁(每个人都会失去他们所有的东西——十个单位的价值——以及一个单位,如果他们建造了)。

这与经典的“军备竞赛”有重要的不同,因为按下“现在每个人都输了”按钮并不是一种均衡策略。
也就是说:对于任何认为强大的错位 AI 代表近乎确定的死亡的人来说,其他可能的 AI 构建者的存在并不是“竞赛”的任何理由。
但很少有人如此悲观。玩家很有可能“调整 AI”的温和版本怎么样?
安全或自杀竞赛
好吧,让我们做一个像上一个一样的游戏,但是如果有人建造,一切都可能被摧毁(减去 10 个),在生存的情况下,每个人都会回到最初的军备竞赛乐趣,即根据谁建造的更多来重新分配东西比谁(+10 给建造者,-10 给非建造者,如果每个人都有的话)。因此,如果你单独构建 AI,并在概率启示录中幸运的话,仍然可以大获全胜。
如果任何建筑物发生,我们将 50% 作为厄运的可能性。然后我们有一个游戏,其预期收益是前两个游戏的一半:

(这些是预期收益——单单建筑的负一单位回报来自建筑的一单位成本,加上在灭绝事件中失去十个的一半机会和在世界接管事件中从对手那里拿走十个的一半机会。 )
现在你想做其他玩家正在做的事情:如果他们会建造就建造,如果他们会通过就通过。
如果毁灭世界的几率很低,这将成为最初的军备竞赛,而你总是想要建造。如果非常高,那将成为自杀式竞赛,你永远不想建造。在现实世界中让你进入这些不同阶段的概率是不同的,因为所有这些参数都是由组成的(人类灭绝的负面影响不是构建强大人工智能的研究成本的 10 倍,因为实例)。
但我的观点是:即使就简单模型而言,我们处于或接近军备竞赛的情况也不是很明显。因此,非常不明显的是,竞相更快地构建高级人工智能甚至在第一次通过时就很有希望。
用不那么博弈论的术语来说:如果你看起来离解决对齐问题还差得很远,那么就尽你所能努力成为解决对齐问题的人——尤其是如果这意味着你有更少的时间来解决问题这样做,虽然我没有在这里讨论——可能是不明智的。如果你没有办法让这些人实施足够的安全性以实际不死,那么让更多在意识形态上支持安全的 AI 设计师赢得与不太关心的团队的“军备竞赛”是徒劳的,这似乎是一个非常现实的可能性。 (Robby Bensinger 和 Andrew Critch 可能在某处提出了相似的观点。)
与我的朋友就此类话题进行的对话可以是这样的:

我:如果奖品是共同死亡,就没有真正的比赛动机
他们:当然,但事实并非如此——如果有一线希望在未结盟的 AI 中幸存下来,并且如果你方在这种情况下取​​得控制权的预期会更好一些,并且如果他们无论如何都要构建强大的 AI,那么它就是值得赛车。整个未来都悬而未决!
我:你把自己的努力引向安全不是更好吗,因为你的安全努力也将帮助每个人最终拥有一个安全的人工智能?
他们:这可能只会对他们有所帮助——你不知道对方是否会使用你的安全研究。而且,这不仅仅是因为他们的安全研究较少。按照你的说法,他们的价值观可能更糟。
我:如果他们成功对齐,外国价值观真的比当地价值观差吗?可能任何拥有丰富智慧的人都有类似的机会来创造一个光荣的人类乌托邦,不是吗?
他们:不,即使你是对的,同样的人最终会让你拥有相似的价值观,但其他各方可能比我们这边更愚蠢,并锁定 7 他们想要的价值观的一些未经深思熟虑的版本目前,或者即使所有项目都如此愚蠢,我们这边可能会有更好的未经深思熟虑的价值来锁定,并且更有可能使用安全理念。即使赛车很可能导致死亡,而生存很可能导致浪费大部分价值,但在那片幸福的世界里,无论是我们还是其他人在浪费,都关系重大!
我:嗯,看起来很复杂,我需要纸来做这个。

复杂的种族/反种族
这是一个模型电子表格,您可以复制并使用。
第一个模型是这样的:

每个玩家在安全和能力之间分配他们的努力
一个玩家“获胜”,即首先构建“AGI”(人工智能)。
P(Alice wins) 是 Alice 的能力投资相对于 Bob 的逻辑函数
每个玩家的总安全是他们自己的安全投资加上对方安全投资的一小部分。
对于每个参与者,如果他们达到安全,就会有一些结果分布,如果他们没有达到安全,就会有一组结果,这考虑了例如他们实施愚蠢的近期锁定的倾向。
结果是赢家和对齐状态的分布,每个都是世界的分布(例如乌托邦,近期良好锁定……)
这一切都给了我们很多实用程序(美味的实用程序!)

第二个模型是相同的,除了不是在安全和能力之间分配努力,而是选择一个速度,并且每一方完成的对齐量是一个外生参数。
这些模型可能不是很好,但到目前为止支持我想在这里提出的一个关键主张:在这种情况下应该走得更快还是更慢并不明显——它对许多不同的参数很敏感范围。
此外,我认为定量分析的结果与人们的直觉不符。
例如,这是一个我认为直觉上听起来像是你应该比赛的世界的情况,但在上面的第一个模型中,你实际上应该尽可能慢地走(这应该是现在插入电子表格的那个):

AI 非常安全:未结盟的 AGI 只有 7% 的几率导致厄运,另外还有 7% 的几率导致短期锁定一些平庸的东西
你的对手冒着糟糕的锁定风险:如果“锁定”了一些平庸的东西,你的对手有 5% 的机会锁定在一些积极可怕的东西上,而你总是会选择好的平庸的锁定世界(和平庸的锁-ins 要么是乌托邦的 5%,要么是 -5%)
你的对手冒着破坏乌托邦的风险:如果 AGI 一致,你将可靠地获得最佳结果,而你的对手也有 5% 的机会最终陷入“平庸的糟糕”场景。
安全投资抹杀了你首先获得 AGI 的机会:从完全没有安全到完全安全意味着你成为第一个的机会从 50% 变为 0%
您的对手正在赛车:您的对手正在将一切都投入到能力上,而没有投入到安全性上
安全工作以极大的折扣帮助他人:您的安全工作为其他玩家的安全贡献了 50%

你在这里(在这个模型上)最好的选择仍然是最大化安全投资。为什么?因为积极追求安全,可以让对方半途而废,这比失去的获胜机会更有价值。特别是如果 y如果你“赢”了,你是在没有太多安全保障的情况下这样做的,而你在没有安全保障的情况下取得的胜利比对手在安全保障的情况下取得的胜利更糟糕,即使这也远非完美。
因此,如果您处于这个空间的情况下,而另一方正在赛车,那么以牺牲安全为代价来加快速度甚至符合您在游戏中的狭隘利益并不明显,尽管它可能是。
这些模型在很多方面都有缺陷,但我认为它们比支持军备竞赛的直观模型要好。我的猜测是下一个更好的模型仍然存在细微差别。
其他均衡和其他博弈
即使如果其他人在比赛,你也有兴趣参加比赛,“(什么都不做,什么也不做)”在这些游戏中通常也是一种平衡。至少对于参数的各种设置。如果你知道你的对手是错误的并且无论如何都要参加比赛,那么为了达到这种平衡而什么都不做并不一定有意义,但结合与你的“对手”的沟通,这似乎是一个理论上的好策略.
这一切都假设了游戏的结构。我认为对军备竞赛情况的传统反应是要记住,你身处一个更复杂的世界,拥有各种未建模的可供性,并试图摆脱军备竞赛。
与冒险者做朋友
谨慎是合作
另一个大问题是,推动较慢的 AI 进展正在“背叛”AI 研究人员,他们是 AI 安全社区的朋友。
例如史蒂文伯恩斯:

“我认为试图通过监管来减缓对 AGI 的研究将会失败,因为每个人(政治家、选民、游说者、企业等)都喜欢科学研究和技术发展,它创造就业机会,治愈疾病等等,等等,你是说我们应该少吃点。所以我认为这种努力会失败,而且还会适得其反,因为它会让 AI 研究人员社区将 AGI 安全/对齐人员社区视为他们的敌人、白痴、怪人、勒德分子等等。”

(这也是之前批评的观点的一个很好的例子,即对创造就业机会和治愈疾病的事物进行监管并没有发生。)
或者 Eliezer Yudkowsky,担心传播对 AI 的恐惧会疏远顶级 AI 实验室:

这是我没有,也告诉其他人不要,及早将人类从 AGI 灭绝的观点与 AI 实验室联系起来的主要原因。克里正确地描述了他所反对的立场,IMO。我自己估计公众将对 AGI 实验室负责人无牙。— Eliezer Yudkowsky (@ESYudkowsky) 2022 年 8 月 4 日

我不认为这是一种自然或合理的看待事物的方式,因为:

研究人员自己可能不想毁灭世界。他们中的许多人实际上也同意人工智能是一种严重的生存风险。因此,以两种自然的方式,推动谨慎与许多(如果不是大多数)AI 研究人员合作。
人工智能研究人员没有道德权利危及世界,有人会要求他们更加谨慎地采取行动。比如,为什么“合作”看起来像是安全人员向人们想要的更鲁莽的能力低头,以至于害怕代表他们的实际利益,而能力人员通过继续建设来维护他们的“合作”方面危险的人工智能?作为不同人在这种情况下的力量的自然结果,这种情况可能是有道理的。但也不要称之为“合作”,如果以安全为导向的各方考虑行使他们拥有的任何权力,他们将可耻地“背叛”。

控制人工智能能力的人可能会对推动缓慢进展的人工智能安全人员做出负面反应。但这应该被称为“我们可能会受到惩罚”而不是“我们不应该叛逃”。 “背叛”具有不当的道德内涵。称一方推动他们想要的结果为“背叛”,通过错误地设定常识性道德来反对他们,不公平地剥夺了他们的权力。
至少在安全方面是这样。如果任何可用的行动是全世界应该谴责的“背叛”,我声称它可能是“建造可能会毁灭世界的机器,或者在它发生时袖手旁观”。
(如果相关人员有信心他们不会毁灭世界,而我只是不同意他们的看法,情况会更加复杂。但大约一半的受访研究人员实际上比我更悲观。而且在中等人工智能研究人员认为的情况下该领域有 5-10% 的机会导致人类灭绝,任何负责人对自己判断其安全的信心有多大?)
最重要的是,我担心强调想要更谨慎的进展是背叛的叙述会进一步破坏,因为如果有人参与,这使得人工智能能力人员更有可能认为人工智能安全人员认为自己背叛了人工智能研究人员。任何此类努力。这使得e 努力更积极。比如,如果每次你见到朋友时,你都称其为“欺骗我的伴侣”,你的伴侣可能会合理地因你不断想见朋友而感到受伤,即使这种行为本身是无害的。
“我们”不是美国,“我们”不是人工智能安全社区
“如果‘我们’试图放慢 AI 的速度,那么对方可能会获胜。” “如果‘我们’要求监管,那么它可能会损害‘我们’与人工智能公司的关系。”这些“我们”是谁?为什么人们特别为这些群体制定战略?
即使放慢 AI 是不合作的,并且 AI 安全社区与 AI 功能社区合作很重要,但 AI 安全社区以外的众多人中的一个不能参与其中吗?
长期以来,我一直对轻描淡写地谈论“我们”应该做什么而感到恼火,而不考虑集体代表的是什么。所以我可能对这里太敏感了。但我认为由此产生的混乱会产生真正的后果。
我认为当人们在这里说“我们”时,他们通常认为他们是在代表 a) 人工智能安全社区、b) 美国、c) 他们自己或 d) 他们和他们的读者制定战略。但这些人只是一小部分人,甚至显然不是演讲者最能影响的人(你坐在美国的事实真的让美国比爱沙尼亚更愿意听你的建议吗?是的,平均而言可能,但不是无限多。)如果这些自然认同的群体没有好的选择,那并不意味着没有选择,或者没有与其他方沟通的选择。说话者可以和不同的“我们”说话吗?也许说话者心目中的“我们”中的某个人认识不在该组中的某个人?如果世界上任何人都有策略,并且您可以交谈,那么很可能有适合您的策略。
在我看来,这些方面最明显的错误是将 AI 的放缓视为对 AI 安全社区与其他 AI 研究人员之间关系的内在破坏。如果我们承认这样的活动将被视为背叛(这对我来说似乎不合理,但也许),那么肯定只有在 AI 安全社区执行时才可能是背叛。有相当多的人不在 AI 安全社区,但与此有利害关系,所以也许他们中的一些人可以做点什么。放弃人工智能进展的所有放缓似乎是一个巨大的疏忽,因为你只考虑了人工智能安全社区可用的功能。
再举个例子:如果世界处于有时想象的基本军备竞赛局面,美国愿意制定法律来降低人工智能风险,但不能因为中国会闯入,那么这意味着中国处于一个很好的地方减轻人工智能风险。与美国不同,中国可以提议相互放慢速度,而美国会同意。也许向中国相关人士传达这一点并非不可能。
这种感觉相关的讨论的一个奇怪之处在于,坚持认为一个人的行动能力仅限于美国。也许我无法理解亚洲在多大程度上是一个不适用代理的陌生而遥远的土地,但例如我只是写信给那里的一千名机器学习研究人员,也许有一百人回信,而且很多喜欢在美国与人打交道。
我对哪些干预措施在包括美国在内的任何特定国家/地区会起作用一无所知,但我只是认为假设您基本上只能影响一个国家/地区的事情,来到谈判桌前是很奇怪的。特别是如果你认为你对其他国家人民的利益有独特的了解。就像,公平地说,如果你想让一个亚洲政府选出你的领导人或其他什么的,我会是交易破坏者级别的悲观主义者。但如果你认为先进的人工智能极有可能毁灭世界,包括其他国家,那么情况就完全不同了。如果你是对的,那么大家的动机基本上是一致的。
我更怀疑一些相关的思维捷径正在扭曲关于军备竞赛的讨论。认为某事是一场“比赛”的想法似乎比其他选择更具吸引力,即使真正的动机并没有真正使它成为一场比赛。就像,违反博弈论的规律,人们有点希望敌人试图相信谎言,因为这会更好地促进他们的比赛。这感觉就像现实主义。数十亿人们几乎不了解的不确定细节,有着各种各样的利益和关系,只是真的想在零和博弈中把自己塑造成一个“我们”和一个“他们”。这是一条可能真正杀死我们的思维捷径。
我的印象是,在实践中,对于上文“极具价值的技术”一节中提到的许多因风险或道德问题而放缓的技术,具有相当不同文化的国家已经采用类似的谨慎方法。我拿这个作为证据表明,道德思想、社会影响、政治权力或理性实际上都不是国家孤立的,而且一般来说,“国家竞争”模式并不是很好。
易处理性说明
说服人们似乎并不难
当我说“协调”看起来像是惩罚一项活动的流行观点,或者其他国家没有太多真正的动机去建造会杀死他们的机器时,我认为一个普遍的反对意见是让人们相信真实情况是绝望。情况似乎是,关于 AI 风险的论点极其复杂,而且只有知识精英中的最精英才能理解——例如在 Twitter 上说服教授已经够难的了,所以群众肯定是它无法企及的,外国政府也是如此。
这与我在各个方面的整体经验不符。
一些观察:

正如我提到的,接受调查的 ML 研究人员的中位数似乎认为人工智能将以 5-10% 的几率毁灭人类
通常人们已经在理智上相信了,但还没有将其融入到他们的行为中,并且不难帮助他们组织起来按照他们暂定的信念采取行动
正如 Scott 所指出的,许多 AI 安全人员已经涉足 AI 功能,包括运行 AI 功能组织,因此这些人大概认为 AI 已经存在风险
我不记得在与随机的陌生人讨论 AI 风险时遇到过任何困难。有时他们也相当担心(例如,丝芙兰的一位化妆师对高级人工智能的危险进行了长时间的咆哮,我在圣地亚哥的司机兴奋地同意并向我展示了他前排座位上打开的 Homo Deus)。关注的形式可能与 AI 安全社区的关注形式有些不同,但我认为更接近于“AI 代理将杀死我们所有人”而不是“算法偏差会很糟糕”。我不记得我试过多少次了,但在大流行之前,我经常和优步司机交谈,因为不知道如何避免这种情况。我最近向我的治疗师解释了 AI 风险,除了他认为我可能会造成灾难性后果的感觉之外,我觉得一切顺利,尽管我们可能需要再次讨论。
我的印象是,大多数人甚至没有接触过可能使人们完全同意 AI 安全社区的论点。例如,我的猜测是,很多人假设有人实际上编写了现代人工智能系统,如果你告诉他们事实上它们是随机连接,在一个有收益的方向上多次摇摆不定,就像它们的制造者一样神秘,他们可能也怕错位。
Nick Bostrom、Eliezer Yudkokwsy 和其他早期思想家在说服其他人担心这个问题方面取得了不错的成功,例如我。据我所知,如果不写任何令人信服且易于理解的解释来说明为什么应该这样做,阅读起来将花费不到两个小时。
我傲慢地认为我可以写一个广泛引人注目且易于理解的 AI 风险案例

我的猜测是,不可动摇的 AI 风险怀疑论者集中在 AI 风险人群附近的知识界,尤其是在 Twitter 上,而且在知识地位竞赛中马匹较少的人更容易喜欢,’哦,是的,超级智能机器人可能是坏的’。目前尚不清楚大多数人是否甚至需要说服存在问题,尽管他们似乎并不认为这是世界上最紧迫的问题。 (尽管所有这些在我所远离的文化中可能有所不同,例如在中国。)我对此非常不自信,但略读调查证据表明,美国公众对 AI 的担忧虽然不是压倒性的,但也有实质性的。
你需要说服所有人吗?
我可能是错的,但我想说服 AI 实验室的十位最相关的领导者这是一件大事,值得优先考虑,实际上会让你放慢脚步。我没有太多证据证明这一点。
购买时间大
您可能不会永远避免 AGI,也许巨大的努力可以为您争取几年的时间。9 这值得吗?
似乎很合理:

无论人们在做什么其他人工智能安全研究或政策工作,每年都可能以不可忽略的速度发生。 (连同所有其他改善情况的努力——如果你购买一年,那就是多出 80 亿人年的时间,所以只需要花费一点点有用的钱就可以使它变大。如果很多人担心,这似乎并不疯狂。)
地缘政治经常变化。如果你真的认为决定事情进展到何种程度的一个重要因素是无法与某些群体协调,那么每年都会为你提供不可忽视的机会,让情况以有利的方式发生变化。
舆论可以很快改变很多。如果您只能购买一年,那么您可能仍然购买了一些不错的人选,并为您提供更多年限。也许特别是如果新的证据正在积极涌入——人们 ch2020 年 2 月激怒了他们的想法。
其他事情随着时间的推移而发生。如果你能在今天或在随机事件发生几年后接受你的厄运,总的来说后者似乎要好得多。

这些是桌面上的时间尺度对我来说也不是很明显。我的感觉是,由于监管或普遍的社会厌恶而放慢速度的事情通常会放慢一两年以上,而埃利泽的故事假设世界上到处都是集体,要么试图摧毁世界,要么对世界产生严重误解,这还不是定局。
默认情况下延迟可能是有限的
虽然有些人担心任何延迟都会如此之短以至于可以忽略不计,但其他人似乎担心如果人工智能研究停止,它永远不会重新开始,我们将无法进入太空或其他什么。这对我来说听起来太疯狂了,以至于我认为我错过了太多有用的反驳理由。
障碍不需要明辨
试图放慢速度的另一个据称的风险是,它可能涉及监管机构的介入,而他们可能对未来人工智能的细节一无所知,因此顽固地制定了错误的规定。与此相关的是,如果你号召公众为此担心,他们可能会产生不准确的担忧,要求解决方案无能为力,从而分散对真正灾难的注意力。
我不买。如果你只想放慢广泛领域的活动,我的猜测是无知的法规每天都可以做到这一点(通常是无意的)。特别是,我的印象是,如果你把事情搞砸了,通常的结果是很多事情随机地比希望的慢。如果您想加快特定事情的速度,那就完全不同了,可能需要了解所讨论的事情。
社会反对派也是如此。没有人需要了解基因工程如何运作的细节,因为不喜欢它的人会严重损害它的优势。也许在他们的灯光下,它还没有被最佳地破坏,但只是不喜欢附近的任何东西确实有很长的路要走。
这与监管或社会羞辱无关。你需要更少地了解汽车、国家或谈话来搞砸它,而不是让它运行良好。这是一般规则的结果,即事物功能失调的方式比功能多得多:破坏比创造容易。
回到对象层面,我暂时希望努力广泛减缓 AI 进展附近的事情,以减缓 AI 在网络上的进展,即使目标不佳。
速度带来安全,同谋带来影响力
由于各种原因,目前让 AI 快速运行实际上可能对安全性更好。尤其:

尽快实施可以实施的可能意味着更顺利的进展,这可能更安全,因为 a) 它使一方更难抢在所有人之前获得权力,以及 b) 人们在周围做出更好的选择,如果他们是正确的发生了什么(例如,他们不相信事实证明比预期强大得多的系统)。
如果减缓 AI 进展的主要目的是为安全研究留出更多时间,并且在更先进的 AI 背景下进行安全研究会更有效,并且可以进行一定程度的放慢(例如,因为一个实际上是在军备竞赛中,但比竞争对手有一些领先),那么以后最好使用一个人放缓的预算。
如果有一些潜在的进步曲线(例如,如果可能花在硬件上的钱每年只增长一定数量),那么也许如果我们现在向前推进,那自然会要求他们以后放慢速度,所以它不会影响强大人工智能的总体时间,但意味着我们将在信息丰富的灾难前人工智能时代花费更多时间。
(我认为更多的东西在这里)

也许目前进行能力研究是值得的,例如因为:

作为一名研究人员,研究能力可以让您做好安全工作的准备
您认为出现 AI 的房间将为关心安全的人提供不错的选择

这些似乎都有道理。但也似是而非的错误。我不知道对这些考虑因素中的任何一个进行决定性分析,我不打算在这里做一个。我的印象是,他们基本上都可以选择任何一种方式。
我实际上特别怀疑最后一个论点,因为如果你相信我认为是人工智能风险的正常论点——超人人工智能体将不会有可接受的价值,并且会积极地表现出他们拥有的任何价值,到或者后来人类灭绝——那么打开这种机器的人的情绪似乎是一个非常小的因素,只要他们仍然打开机器。而且我怀疑“让一个拥有我的价值观的人做某事”通常被高估了。但世界比这些模型更混乱,我仍然会付出很多代价才能在房间里接受治疗y。
情绪和哲学、启发法和态度
目前尚不清楚这些心理特征在理性评估如何行动时应该扮演什么角色,但我认为它们确实扮演了角色,所以我想就它们展开争论。
技术选择不是低俗主义
有些技术比其他技术更好 [不需要引用]。我声称,最好的支持技术的愿景应该不成比例地涉及令人敬畏的技术并避免低劣的技术。如果你认为 AGI 极有可能毁灭世界,那么它就是一种技术的狗屁巅峰。反对将其纳入您的技术乌托邦就像拒绝在那里使用放射性牙膏一样。通俗地说,勒德分子反对以技术形式出现的进步。10 即使这是一个糟糕的立场,其明智的逆转并不是对所有“技术”的认可,无论它是否以进步的形式出现。
近期繁荣的非 AGI 愿景
也许减缓人工智能的进步意味着放弃我们这一代人对改变生活的技术的希望。因此,一些人发现很难在心理上瞄准较少的 AI 进步(以其实际的个人成本),而不是追求可能不太可能的“安全 AGI 很快”的场景。
我不确定这是一个真正的困境。我们已经看到的狭义人工智能进展——即当前技术在当前规模上的进一步应用——似乎有可能对长寿和其他医学有很大帮助。在某种程度上,人工智能的努力可以集中在例如。医学上相关的狭隘系统创造了代理诡计之神,想象在抗衰老等方面取得更多进展听起来并不疯狂(甚至在考虑代理诡计之神没有像希望的那样优先考虑你的身体健康的可能性之前) ).其他人不同意我的看法。
稳健的先验与特定的星系脑模型
世界上有些东西非常好,有些东西在高度特定的内部视图模型上很好,但如果这些模型错误则很糟糕。减缓危险技术的发展似乎是前者,而在世界超级大国之间推动危险技术的军备竞赛似乎更像是后者。11 有一个普遍的问题是,在多大程度上相信你的推理并冒着银河系大脑计划的风险。12 但无论你接受这一点,我想我们都应该同意,你对它的思考越少,你就越应该倒退到强有力的良好行动上。就像,如果你只是想借一大笔钱买一辆高档汽车,你可能不应该这样做,因为大多数时候这是一个糟糕的选择。然而,如果你已经考虑了一个月,你可能会非常确定你处于这种罕见的情况下会得到回报。
在这个特定主题上,感觉就像人们正在使用特定的银河系大脑内部视图,如果是错误的模型,那就太糟糕了,然后就不再考虑它了。
Cheems心态/不能做的态度
假设你有一个朋友,你对他们说“我们去海滩吧”。有时朋友会说“是的”,然后即使你没有毛巾、交通工具、时间或海滩,你也能做到。其他时候,即使你拥有所有这些东西,而你的朋友名义上想去海滩,他们也会注意到他们稍后会有包裹,而且可能有风,他们的夹克需要清洗。当你解决这些问题时,他们会注意到离晚餐时间不远了。您可能会推断,在后一种情况下,您的朋友只是不想去海滩。有时这是主要的事情!但我认为态度上也存在更广泛的差异:有时人们正在寻找使事情发生的方法,有时他们正在寻找无法发生的原因。这有时被称为“cheems 态度”,或者我喜欢(更通俗易懂)称之为“做不到的态度”。
我在与人谈论放慢 AI 速度时的经验是,他们似乎有一种做不到的态度。他们不希望这是一个合理的过程:他们想取消它。
这似乎都不是最理想的,并且与历史上对更多技术问题解决的态度形成鲜明对比。 (正如我在帖子开头的对话中所强调的那样。)
在我看来,如果将同样程度的不能做的态度应用于技术安全,就不会有 AI 安全社区,因为在 2005 年 Eliezer 会注意到对齐的任何障碍并放弃并回家。
引用一位朋友的话说,如果我们*实际尝试过*会是什么样子?
结论
这是对我遇到的一堆不考虑减缓 AI 进步的原因的各种批评。我认为我们在这里没有看到太多理由对放慢 AI 的速度感到非常悲观,更不用说甚至不考虑它的理由了。
我可以选择任何一种方式来判断在短期内减缓人工智能的任何干预措施是否是一个好主意。我的初步猜测是肯定的,但我的主要兴趣这里只是我们应该考虑一下。
在我看来,很多关于这个问题的观点都没有经过深思熟虑,是错误的,并且错误地排斥了可能纠正它们的进一步想法。我希望通过研究一些足以证明没有充分理由立即解雇的此类考虑来在这里有所帮助。存在困难和问题,但如果在这里和其他地方采用相同的雄心标准,我想我们会看到答案和行动。

作者 east
php, python 3月 26,2023

python自动把内容发表到wordpress完整示例及错误解答

要实现 Python 自动将内容发布到 WordPress,可以使用 Python 的 wordpress_xmlrpc 库,该库提供了使用 WordPress XML-RPC API 进行内容发布和管理的功能。 需要安装一下第三方库:wordpress_xmlrpc!

pip install python_wordpress_xmlrpc

下面是一个简单的示例代码,可以实现发布一篇新文章到 WordPress:

from wordpress_xmlrpc import Client, WordPressPost

from wordpress_xmlrpc.methods import posts

# WordPress 网站的 XML-RPC API 地址和账号信息

url = “网站域名/xmlrpc.php”

username = “your-username”

password = “your-password”

# 连接 WordPress 网站并进行身份验证

client = Client(url, username, password)

# 创建一个新的 WordPress 文章

post = WordPressPost()

post.title = “这是一篇新文章”

post.content = “这是文章的内容。”

# 文章状态,不写默认是草稿,private表示私密的,draft表示草稿,publish表示发布

post.post_status = “draft”

post.terms_names = {

    ‘post_tag’: [‘test’, ‘firstpost’], #文章所属标签,没有则自动创建

    ‘category’: [‘Introductions’, ‘Tests’] #文章所属分类,没有则自动创建

 }

# 发布文章到 WordPress

client.call(posts.NewPost(post))

在上面的代码中,我们首先指定了 WordPress 网站的 XML-RPC API 地址和账号信息,然后创建了一个新的 WordPress 文章对象,并设置了文章的标题、内容和状态。最后,我们使用 client.call 方法调用 posts.NewPost 方法,将文章发布到 WordPress 网站。

需要注意的是,在使用 WordPress XML-RPC API 时,需要遵守相关的使用规定和安全措施,例如使用 HTTPS 进行数据传输,避免明文传输密码等。此外,在使用 API 时,也需要控制访问频率和并发请求数量,避免给 WordPress 网站带来过大的负载压力。

  如果出现下面的错误:

Traceback (most recent call last):

  File “/root/newcode/python/wordpress_publish.py”, line 8, in <module>

    client = Client(url, username, password)

  File “/root/anaconda3/lib/python3.9/site-packages/wordpress_xmlrpc/base.py”, line 24, in __init__

    self.supported_methods = self.server.mt.supportedMethods()

  File “/root/anaconda3/lib/python3.9/xmlrpc/client.py”, line 1122, in __call__

    return self.__send(self.__name, args)

  File “/root/anaconda3/lib/python3.9/xmlrpc/client.py”, line 1464, in __request

    response = self.__transport.request(

  File “/root/anaconda3/lib/python3.9/xmlrpc/client.py”, line 1166, in request

    return self.single_request(host, handler, request_body, verbose)

  File “/root/anaconda3/lib/python3.9/xmlrpc/client.py”, line 1182, in single_request

    return self.parse_response(resp)

  File “/root/anaconda3/lib/python3.9/xmlrpc/client.py”, line 1348, in parse_response

    p.feed(data)

  File “/root/anaconda3/lib/python3.9/xmlrpc/client.py”, line 451, in feed

    self._parser.Parse(data, False)

xml.parsers.expat.ExpatError: XML or text declaration not at start of entity: line 2, column 0

修改上面提示的/root/anaconda3/lib/python3.9/xmlrpc/client.py文件,将其中的:

def feed(self, data):

self._parser.Parse(data, 0)

改成如下的代码:

def feed(self, data):

self._parser.Parse(data.strip(), 0)

然后再次测试,终于成功了。

作者 east
python 3月 25,2023

2023最新亲测可用的免费google翻译api

googletrans-python是一个开源的Python库,它基于Google Translate API实现了文本翻译功能。https://github.com/leeyunjai/googletrans-python

它的优点和作用如下: 优点:

  1. 简单易用:googletrans-python提供了简单易用的API,可以方便地实现文本翻译功能。
  2. 支持多种语言:googletrans-python支持多种语言的翻译,包括中文、英文、日文、韩文、法文、德文、俄文等等。
  3. 高效稳定:googletrans-python基于Google Translate API实现,翻译效果准确,并且稳定高效。 作用:
  4. 文本翻译:googletrans-python可以方便地实现文本翻译,支持多种语言的翻译。
  5. 跨语言交流:在跨语言交流的场景下,可以使用googletrans-python帮助交流双方进行翻译,方便交流。
  6. 语言学习:在学习外语的过程中,可以使用googletrans-python帮助理解和翻译生词、语句等,提高学习效率。 总之,googletrans-python是一个实用的文本翻译工具,并且具有广泛的应用场景。

Google Translate API for Python

This is a Python library that provides an interface to the Google Translate API.

Installation

You can install this library using pip:

pip3 install googletrans-python

Usage

translate(TEXT, target_language_code)

import googletrans as gt
# Translate text from English to Korean
print(gt.translate("Hello, How are you?", "ko"))
# Translate text from English to Japanese
print(gt.translate("Hello, How are you?", "ja"))
# Translate text from English to French
print(gt.translate("Hello, How are you?", "fr"))
안녕하세요. 어떻게 지내세요? 
こんにちは元気ですか?
Bonjour comment allez-vous?
作者 east
bug清单 3月 25,2023

运行python发生错误:AttributeError: partially initialized module ‘googletrans’ has no attribute ‘translate’ (most likely due to a circular import)

最近在运行一个运用谷歌翻译的python,发生了一下错误:

Traceback (most recent call last): File “/root/newcode/python/googletrans.py”, line 1, in import googletrans as gt File “/root/newcode/python/googletrans.py”, line 4, in print(gt.translate(“Hello, How are you?”, “ko”)) AttributeError: partially initialized module ‘googletrans’ has no attribute ‘translate’ (most likely due to a circular import)

这个错误的原因可能是您的Python文件名和一个Python库的名称相同了,导致Python解释器在导入这个库时出现了错误。具体来说,您的Python文件名为googletrans.py,而您尝试导入了一个名为googletrans的库,这可能会导致Python解释器混淆两者之间的名称,从而出现错误。 为了解决这个问题,您可以尝试将您的Python文件重命名为一个不同的名称,例如my_googletrans.py,然后在您的Python文件中使用正确的库名称来导入googletrans库

把 googletrans.py 重新修改了名字,终于运行没问题了。

作者 east
python, 运维 3月 25,2023

Centos安装Anaconda的理由和教程

选择理由

选择Anaconda3安装Python环境的主要理由如下:

  1. 方便安装第三方库 Anaconda3中已经预先安装了许多常用的第三方库,如NumPy、Pandas、Matplotlib等。这些库是数据科学和机器学习等领域中必不可少的工具,使用Anaconda3可以避免手动安装这些库所带来的麻烦。
  2. 管理Python虚拟环境 Anaconda3提供了一个名为conda的包管理工具,可以方便地创建、管理和切换Python虚拟环境。这对于同时开发多个项目或在同一项目中使用不同版本的Python非常有用。
  3. 跨平台支持 Anaconda3可以在Linux、Windows和MacOS等多个平台上运行,这使得开发者可以在不同的平台上使用相同的Python环境进行开发和测试。
  4. 简化Python安装过程 Anaconda3提供了一个一键安装的方式,用户无需手动配置Python环境,也无需担心依赖库的问题。这使得Python的安装变得非常简单和快速。 综上所述,选择Anaconda3作为Python环境的主要原因是其提供了方便的第三方库安装、Python虚拟环境管理、跨平台支持和简化的安装过程。

安装教程

1、下载Anaconda3 在Anaconda官网中下载适合CentOS版本的Anaconda3,下载完成后将文件上传到CentOS服务器上。国内的可以选择清华大学的镜像,https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/。例如在centos终端输入下载地址

 wget  --no-check-certificate https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/Anaconda3-2022.10-Linux-x86_64.sh

2、安装Anaconda3 打开终端,进入Anaconda3所在目录,运行以下命令进行安装:

chmod +x Anaconda3-xxx-Linux-x86_64.sh
./Anaconda3-xxx-Linux-x86_64.sh

其中,xxx为版本号,需要根据实际情况进行替换。安装过程中需要按照提示进行操作,如选择安装路径等。

3. 配置环境变量 在终端输入以下命令,打开~/.bashrc文件:

vi ~/.bashrc

在文件末尾添加以下内容:

export PATH="/root/anaconda3/bin:$PATH"

其中,/root/anaconda3为Anaconda3的安装路径,需要根据实际情况进行替换。 保存并退出~/.bashrc文件,然后运行以下命令使环境变量生效:

source ~/.bashrc
  1. 验证安装 在终端输入以下命令,查看Anaconda3的版本信息:
conda -V

如果显示Anaconda3的版本号,则表示安装成功。

使用教程

在CentOS上使用Anaconda3运行代码的步骤如下:

  1. 打开终端,输入以下命令激活Anaconda3环境:
source /root/anaconda3/bin/activate

其中,/root/anaconda3为Anaconda3的安装路径,需要根据实际情况进行替换。 2. 进入到您的代码所在的目录。 3. 运行您的Python代码,例如:

python example.py

其中,example.py为您的Python代码文件名。 4. 运行完成后,可以输入以下命令退出Anaconda3环境:

conda deactivate

另外,如果您使用Jupyter Notebook来运行Python代码的话,可以在终端中输入以下命令启动Jupyter Notebook:

jupyter notebook

然后在浏览器中打开http://localhost:8888/,就可以使用Jupyter Notebook来编辑和运行Python代码了。

作者 east
自媒体 3月 23,2023

有长尾收入的副业-在文库类平台上传文章赚钱

   在文库类平台赚钱是一种长尾的收入:一次上传,然后有持续的收入。

   文库平台可以赚钱,但是赚钱的方法和平台选择很重要。有一些推荐的文库平台,包括金锄头、道客巴巴、book118、百度文库、豆丁、蚂蚁和唬唬网。这些平台都有各自的优势和劣势,可以根据自己的需求选择适合的平台。

例如,百度文库提供付费文档销售收入和积分文档广告分成收入两种赚钱方式。但是,赚钱的关键在于文档的数量和质量。普通人真正靠文库赚到钱的套路其实也简单,就是规模两个字。一般有2000-5000篇文章大概可以月入几十到几百不等,1-2万篇文档大概可以月入几千,月入过万不仅仅要有好几万篇文档,最好还要有多个账号。

不同文库平台对比

这些文库平台都有各自的优势和劣势。例如,金锄头的优点是门槛低、上传文档通过率高、浏览量高、收入高,但缺点是收入不持久 。道客巴巴的优点是28分成你值得拥有、大平台、浏览量高,但缺点是通过率是我见过最低的平台 。book118的优点是网站权重高,收入适中,通过率尚可,但缺点是平台规则近期大幅修改,会被翻底账 。

同一篇文章可以上传到多个文库平台上去吗?

这个问题的答案取决于您上传的文档的版权情况。如果您拥有文档的版权,那么您可以将其上传到多个文库平台。但是,如果您不拥有文档的版权,那么您可能无法在多个平台上上传同一篇文档。

建议您在上传文档之前仔细阅读各个文库平台的用户协议和版权政策,以确保您的行为符合规定。

一鱼多吃

   一篇原创文章,除了可以上传多个文库平台,还可以上传一些自媒体平台。例如百度文库上的文章可以上传到百家号,还可以发表到自己的网站,做到一鱼多吃。

作者 east
chatgpt 3月 21,2023

小说家用chatgpt写小说

今年早些时候,我写了一篇关于在小说中使用 AI 的类型小说作家的文章。 大多数是为亚马逊的 Kindle 平台写作的,那里的出版速度非常快,快到每月一本书,是常态。 人工智能帮助他们快速写作,但也引发了复杂的审美和伦理问题。 人工智能的广泛使用是否会使小说偏向最常见的惯例和比喻? 在写作不再像他们自己之前,写作过程的哪些部分可以自动化? 作者是否必须披露他们对 AI 的使用? 随着 ChatGPT 的首次亮相,这些作家正在处理的许多问题变得更加紧迫和主流。 我与其中一位作者詹妮弗·莱普 (Jennifer Lepp) 进行了核对,她以笔名 Leanne Leeds 撰写舒适的超自然神秘子流派,看看她现在是如何看待人工智能的。 她仍在使用基于 GPT-3 的工具 Sudowrite——事实上,她现在得到报酬为公司的博客撰写使用该工具的技巧——并开始将一些更新的工具融入她的小说中。 我们谈到了使用 ChatGPT 的感觉、它的首次亮相如何搅动独立作者社区以及其他话题。

当我们上次交谈时,您经历了使用 Sudowrite 的演变,首先主要是作为一种同义词库,然后尝试将其文本融入您的工作,然后让它引导您并获得疏远的体验并重新控制它 并主要使用它来充实您概述的描述。 你现在的流程是怎样的? 好吧,我曾希望它能帮助我同时写两本书,但最终以失败告终。 显然,我仍然与自己的作品有关。 所以,一方面,这很好。 您认为它可以让您来回切换并同时写两本书吗? 我想,嘿,如果我不知道该写什么,我就往里面塞点东西,它会让我继续前进,然后我会马上回到我一周前离开的那本书。 事情并非如此。 如果我不知道自己在做什么,它向我吐出什么也没关系。 它不会帮助我重新连接我已经写过的材料。 您和其他一些独立作者是这些工具的早期采用者。 使用 ChatGPT,感觉就像很多其他人突然都在努力解决与您面临的相同问题。 那是什么样的? 我肯定还在挣扎,我想我在更公开地挣扎了一点。 在大多数情况下,以前的人们有点翻白眼——我认为他们不明白人们使用 AI 的目的。 ChatGP3 爆炸了。 我所在的每一个小组,每一个私人的幕后作者小组,都在进行某种讨论。 现在,每个人都在谈论在外围设备上使用它。 但两者之间似乎存在这种道德鸿沟:“它做广告真的很好,我讨厌做广告,我必须花钱请人做广告,而广告不是写作,所以我打算用它来做广告 ” 或者“好吧,我要让它帮助我收紧我的情节,因为我讨厌情节,但它的情节非常好,所以我打算用它来做这件事。” 或者“你知道吗,如果你告诉它校对,它会确保它在语法上是正确的?”

每个人都越来越接近用它来写他们的东西,然后他们停下来,每个人似乎都觉得他们在谈论这个时必须宣布:“但我从来没有用它来写我的书 ” 我愿意。 它不会推动我的情节。 它通常不会驱动我书中的任何想法。 它不会创建角色。 但实际的话,只是为了更快地把它们记下来并把它说出来,我做到了。 所以在过去的几周里我发现自己在想,我要参与这场辩论吗? 我说什么吗? 大多数情况下,我什么也没说。 你认为人们画的线是什么? 这是剽窃的问题。 每个人都知道他们在获得许可和未经许可的情况下爬取了东西。 还有一个道德问题。 我可以进去——现在,我正在听 Jim Butcher 的有声读物。 我喜欢他的语气。 我喜欢面无表情的蛇。 因此,当我考虑尝试用角色获得类似的东西时,我进入了 AI,并说:“以 Jim Butcher 的风格重写它。” 砰! 同样的面无表情,都市幻想的措辞。 那么,它从哪里得到的? 这几乎与视觉艺术家的争论和恐惧完全相同。 这在艺术家社区中更为明显。 我广泛阅读了三位作者的作品,他们都是我的朋友,我知道他们从来没有允许我看他们的东西,我能够合理地重现他们的风格。 您是否看到将 AI 用于描述之类的内容与使用它来模仿其他作者的声音之间的界限? 是的。 那我不会做的。 对我来说,这是一条道德底线。 我可能喜欢吉姆·布彻,我希望上帝保佑我能像他一样写作,但我不会拿我的故事用他的声音重写来敲诈他。 但是,如果您在道德上同意这一点,那么您可以使用这项技术及其允许您做的事情。 您是否已将 ChatGPT 纳入您的工作? 现在,我将它用于标题和情节——特别是神秘情节。 和宣传语。 我基本上只是告诉它我是谁以及我需要什么。 “我正在写一部发生在得克萨斯州桌岩小镇的超自然悬疑小说。 它有一个女性业余侦探。 这是她的名字。 我需要一个谋杀受害者。 我需要他们是怎么被杀的。 我需要四名谋杀嫌疑犯,并提供有关他们为何被怀疑以及如何洗清罪名的信息。 然后告诉我凶手是谁。” 它会做到这一点。 它会吐出来。

它给了你哪些东西? 现在,我有第二、三、四、五、六和七本书的[情节],所有这些谋杀之谜都是 ChatGPT 生成的,尽管我编辑了其中一些。 令人印象深刻的是,如果我告诉它这是一个温馨的谜团,并且告诉它它需要幽默,它似乎就能理解我的要求。 它给我的嫌疑人的名字很可爱。 其背后的原因从来都不是血腥或严肃的。 你觉得你可以将它的那部分自动化并且仍然感觉可以控制故事吗? 一个舒适的谜团有两个部分。 有谋杀,谋杀是所有角色都围绕的事情。 但对我来说,谋杀往往不如所有的循环重要。 所以必须有谋杀,而且必须有趣和有趣,并给出混乱和奇怪的原因。 但它是什么对情节几乎无关紧要,即使它是驱动一切的东西。 “进展如此之快,以至于真正回答了一些问题。” 您在电子邮件中提到您正在使用 AI 制作书籍封面。 我没有在 DALL-E 上完成整个封面,但在我拥有的第七本书中,我勾画了一个涉及一只 Lykoi 猫的情节。 这是一只丑到可爱的猫。 这显然是一个相当新的品种,就像有毛猫和无毛猫的杂交品种。 所以它在某些地方有毛发,看起来像狼人。 所以我必须找到一个可以拍摄的摄影师,找到一只 Lykoi 猫,付钱给每个人以获得我需要的图像和封面。 这太贵了。 所以百灵鸟,我当时想,嗯? 我想知道… 然后我去开户,跳进了 DALL-E。 繁荣! 对我来说,它节省了很多时间和金钱,而且封面看起来很棒,但摄影师没有得到报酬,对吧? 想要给他们的猫摆姿势的人没有得到报酬。 您如何看待这些工具以及作家使用它们的方式的演变? 我真的只是被困在中间,想知道它会走哪条路。 我绝对不想鼓励不习惯使用它的人使用它。 我确实认为它会渗入他们的生活。 它已经泄漏到我们所有其他软件中,所以我认为很难摆脱它。 但我绝对不知道它的去向。 ChatGPT 把我吓坏了。 我曾想,好吧,这需要三四年时间,它会变得更好。 然后出现了 ChatGPT,天啊,那好多了! 已经六个月了! 进展如此之快,真正得到解答的问题如此之少。


如何用chatgpt写某个主题的小说提示词运用实例
利用chatgpt扩展写小说提示词运用实例
如何使用 ChatGPT 写文章
使用 GPT3 帮助您写一篇读者会记住的博客

作者 east
程序员网赚 3月 21,2023

Chrome浏览器如何使用Socket5

chrome浏览器是后起之秀的浏览器,尤其是受广大程序员喜欢。XShell可以很方便进行远程管理linux服务器,下面介绍一种快捷方便使用socket5的方法

工具/原料

  • linux服务器 xshell和Xftp个人免费版下载使用
  • XShell

方法/步骤

  • 打开XShell,协议选择SSH,在主机输入服务器的外网IP,端口号为22
  • 连接成功后,单击属性工具按扭,找到隧道,然后单击”添加“
  1. 在转移规则弹出框中,类型选择”Dynamic(SockS4/5),端口选1080
  • 假设你的chrome浏览器位于”C:\Program Files (x86)\Google\Chrome\Application\chrome.exe”那么在命令行下执行以下dos命令:”C:\Program Files (x86)\Google\Chrome\Application\chrome.exe” –show-app-list  –proxy-server=”SOCKS5://127.0.0.1:1080″
  • 在打开chrome浏览,输入我们要访问的网址,这时就是使用Sock5的了
作者 east
chatgpt 3月 14,2023

数学家利用chatgpt做数学研究

有一位著名的数学家陶哲轩(Terence Tao)曾经在网上分享过他如何使用ChatGPT来辅助他的数学研究。他认为ChatGPT虽然数学能力不强,但是可以作为一个发散思维的工具,帮助他寻找公式、提示、术语等相关信息。他还用ChatGPT来改写论文语句、查询小语种数学名词的发音等。

陶哲轩给出了一些具体的例子,比如说他用ChatGPT来解决同事提出的一个问题,虽然ChatGPT给出的答案是错误的,但是它提到了一个高度相关的术语:对数矩生成函数,并且给出了一个具体的例子。陶哲轩仔细分析了ChatGPT的解答过程,发现它用到了一个和标准答案很接近的公式。他还用儿子帮忙做的ChatGPT手机短信版来证明有无穷多个素数,发现ChatGPT给出了一个他从未见过的论证思路。

陶哲轩总结说,ChatGPT在处理数学问题时可以做一些半成品的语义搜索工作,也就是说不用提供确切的答案,只用生成一些可能的提示。然后结合传统搜索引擎就可以找到答案。他还把传统计算机软件和AI工具做了一个类比:传统计算机软件就像是数学中的标准函数,比较死板;AI工具更像是数学中的概率函数,会更加灵活。

陶哲轩对AI在数学研究中的应用非常感兴趣,他还组织了一场机器学习辅助证明主题研讨会,展示了很多前沿成果。他还分享了如何用数学结合机器学习预测火灾变化等实际问题。

这些例子可以说明数学家利用ChatGPT做数学研究是有可能和有价值的。当然,这也需要数学家有足够的专业知识和创造力,以及对AI工具有正确和合理的期待和使用方式。

作者 east
提示词 3月 14,2023

利用ChatGPT(new bing)数据库开发实践

在开发时,需要把mysql的表结构转换成pgsql,两者的语法差别自己知道,想看一下New Bing是否智能。

第一回合:

问AI:

以下mysql表结构改写成pgsql:

DROP TABLE IF EXISTS `tb_test`;

CREATE TABLE `tb_test` (

`id` int(11) NOT NULL AUTO_INCREMENT,

`create_time` datetime(0) NULL DEFAULT NULL COMMENT ‘查询时间’,

`name` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_bin NULL DEFAULT NULL COMMENT ‘名称’,

PRIMARY KEY (`id`) USING BTREE

) ENGINE = InnoDB AUTO_INCREMENT = 290383 CHARACTER SET = utf8mb4 COLLATE = utf8mb4_bin COMMENT = ‘请求样本’ ROW_FORMAT = Dynamic;

AI回答如下:

您好,这是Bing。您想要将MySQL表结构转换为PostgreSQL的格式吗?如果是这样,您可以使用一些在线工具或软件来帮助您完成这个任务。例如,您可以尝试使用SQLines1或Stack Overflow2上推荐的方法。我为您生成了一个可能的转换结果,但请注意,这不一定是最优或最准确的,您可能需要根据您的具体需求进行一些调整。希望对您有所帮助。

-- 以下是可能的转换结果
DROP TABLE IF EXISTS tb_test;
CREATE TABLE tb_test (
id serial NOT NULL,
create_time timestamp NULL DEFAULT NULL COMMENT '查询时间',
name varchar(255) NULL DEFAULT NULL COMMENT '名称',
PRIMARY KEY (id))
COMMENT = '请求样本';

第二回合:

Ai回答内容有问题,进一步纠正它的错误。

问AI:

pgsql的字段后面不能直接带comment

AI回答如下:

您说得对,PostgreSQL的字段后面不能直接带comment,需要使用COMMENT命令1来单独设置。例如,您可以这样写:

COMMENT ON COLUMN wz_specimen.create_time IS '查询时间';
COMMENT ON COLUMN wz_specimen.name IS '企业名称';
-- 以此类推

您也可以使用psql的dt+和d+命令来查看表和字段的注释2。希望这些信息对您有用。

第三回合:

AI还是挺聪明,一点就明白,不过希望给个完整,可以直接复制。

问AI:

重新写个完整正确的

AI回答如下:

好的,我尝试重新写一个完整正确的PostgreSQL表结构,但请注意,这不一定是最优或最准确的,您可能需要根据您的具体需求进行一些调整。请看:

-- 以下是可能的转换结果DROP TABLE IF EXISTS tb_test;

DROP TABLE IF EXISTS tb_test;
CREATE TABLE tb_test (
id serial NOT NULL,
create_time timestamp NULL DEFAULT NULL ,
name varchar(255) NULL DEFAULT NULL ,
PRIMARY KEY (id)) ;

COMMENT ON COLUMN wz_specimen.create_time IS '查询时间';
COMMENT ON COLUMN wz_specimen.name IS '企业名称';
作者 east

上一 1 2 3 下一个

关注公众号“大模型全栈程序员”回复“小程序”获取1000个小程序打包源码。回复”chatgpt”获取免注册可用chatgpt。回复“大数据”获取多本大数据电子书

标签

AIGC AI创作 bert chatgpt github GPT-3 gpt3 GTP-3 hive mysql O2O tensorflow UI控件 不含后台 交流 共享经济 出行 图像 地图定位 外卖 多媒体 娱乐 小程序 布局 带后台完整项目 开源项目 搜索 支付 效率 教育 日历 机器学习 深度学习 物流 用户系统 电商 画图 画布(canvas) 社交 签到 联网 读书 资讯 阅读 预订

官方QQ群

小程序开发群:74052405

大数据开发群: 952493060

近期文章

  • 详解Python当中的pip常用命令
  • AUTOSAR如何在多个供应商交付的配置中避免ARXML不兼容?
  • C++thread pool(线程池)设计应关注哪些扩展性问题?
  • 各类MCAL(Microcontroller Abstraction Layer)如何与AUTOSAR工具链解耦?
  • 如何设计AUTOSAR中的“域控制器”以支持未来扩展?
  • C++ 中避免悬挂引用的企业策略有哪些?
  • 嵌入式电机:如何在低速和高负载状态下保持FOC(Field-Oriented Control)算法的电流控制稳定?
  • C++如何在插件式架构中使用反射实现模块隔离?
  • C++如何追踪内存泄漏(valgrind/ASan等)并定位到业务代码?
  • C++大型系统中如何组织头文件和依赖树?

文章归档

  • 2025年6月
  • 2025年5月
  • 2025年4月
  • 2025年3月
  • 2025年2月
  • 2025年1月
  • 2024年12月
  • 2024年11月
  • 2024年10月
  • 2024年9月
  • 2024年8月
  • 2024年7月
  • 2024年6月
  • 2024年5月
  • 2024年4月
  • 2024年3月
  • 2023年11月
  • 2023年10月
  • 2023年9月
  • 2023年8月
  • 2023年7月
  • 2023年6月
  • 2023年5月
  • 2023年4月
  • 2023年3月
  • 2023年1月
  • 2022年11月
  • 2022年10月
  • 2022年9月
  • 2022年8月
  • 2022年7月
  • 2022年6月
  • 2022年5月
  • 2022年4月
  • 2022年3月
  • 2022年2月
  • 2022年1月
  • 2021年12月
  • 2021年11月
  • 2021年9月
  • 2021年8月
  • 2021年7月
  • 2021年6月
  • 2021年5月
  • 2021年4月
  • 2021年3月
  • 2021年2月
  • 2021年1月
  • 2020年12月
  • 2020年11月
  • 2020年10月
  • 2020年9月
  • 2020年8月
  • 2020年7月
  • 2020年6月
  • 2020年5月
  • 2020年4月
  • 2020年3月
  • 2020年2月
  • 2020年1月
  • 2019年7月
  • 2019年6月
  • 2019年5月
  • 2019年4月
  • 2019年3月
  • 2019年2月
  • 2019年1月
  • 2018年12月
  • 2018年7月
  • 2018年6月

分类目录

  • Android (73)
  • bug清单 (79)
  • C++ (34)
  • Fuchsia (15)
  • php (4)
  • python (43)
  • sklearn (1)
  • 云计算 (20)
  • 人工智能 (61)
    • chatgpt (21)
      • 提示词 (6)
    • Keras (1)
    • Tensorflow (3)
    • 大模型 (1)
    • 智能体 (4)
    • 深度学习 (14)
  • 储能 (44)
  • 前端 (4)
  • 大数据开发 (488)
    • CDH (6)
    • datax (4)
    • doris (30)
    • Elasticsearch (15)
    • Flink (78)
    • flume (7)
    • Hadoop (19)
    • Hbase (23)
    • Hive (40)
    • Impala (2)
    • Java (71)
    • Kafka (10)
    • neo4j (5)
    • shardingsphere (6)
    • solr (5)
    • Spark (99)
    • spring (11)
    • 数据仓库 (9)
    • 数据挖掘 (7)
    • 海豚调度器 (10)
    • 运维 (34)
      • Docker (3)
  • 小游戏代码 (1)
  • 小程序代码 (139)
    • O2O (16)
    • UI控件 (5)
    • 互联网类 (23)
    • 企业类 (6)
    • 地图定位 (9)
    • 多媒体 (6)
    • 工具类 (25)
    • 电商类 (22)
    • 社交 (7)
    • 行业软件 (7)
    • 资讯读书 (11)
  • 嵌入式 (70)
    • autosar (63)
    • RTOS (1)
    • 总线 (1)
  • 开发博客 (16)
    • Harmony (9)
  • 技术架构 (6)
  • 数据库 (32)
    • mongodb (1)
    • mysql (13)
    • pgsql (2)
    • redis (1)
    • tdengine (4)
  • 未分类 (6)
  • 程序员网赚 (20)
    • 广告联盟 (3)
    • 私域流量 (5)
    • 自媒体 (5)
  • 量化投资 (4)
  • 面试 (14)

功能

  • 登录
  • 文章RSS
  • 评论RSS
  • WordPress.org

All Rights Reserved by Gitweixin.本站收集网友上传代码, 如有侵犯版权,请发邮件联系yiyuyos@gmail.com删除.