沿着 Scaling Law、卷模型性能,可能会走到「死胡同」。
谁在影响、定义我们的时代?他们做了什么,如何思考?对话关键人物,记录历史底稿。
本栏目将持续推出。
我们被倡导要想明白自己的目标是什么、并做出计划。然而,两位人工智能研究者却认为,这只适用于普通的小愿望。一旦涉及过于高远的、不确定能否实现的目标,比如打造 AGI(通用人工智能)、登月计划等等——那么根据兴趣进行自由的、开放性的探索,才更能实现想要的。他们把这一观点写成了《为什么伟大不能被计划》一书。在这本书出版的 2015 年,OpenAI 成立,它一开始就确定了实现 AGI 的目标。九年间,OpenAI 取得的巨大成功,似乎证明了人工智能界是一场「目标导向者」的胜利。「OpenAI 看似是目标导向的,但实际上在内部,它有很多有趣的、开放性的探索。」本书作者之一肯尼斯·斯坦利 (Kenneth Stanley) 告诉极客公园。2015 年,他任美国中佛罗里达大学计算机科学系助理教授,和前博士生乔尔·雷曼(Joel Lehman)一起合著了该书。第二年,他们进入产业界,加入 Uber AI 团队。2020 年,他们又一起加入了 OpenAI,肯尼斯担任 OpenAI「开放性研究团队」负责人。OpenAI 的 CEO Sam Altman 是他们这本书的推崇者。他曾在一个公开场合提到,OpenAI 训练模型时会设定指标,指标的上升让人开心,「但对于找出一个新的研究范式,就不起作用了」。受书中观点启发,他愿意尝试更多新奇性探索,「我们愿意耐心等待数月、数年,大多数时候它(探索)并不起作用,但当它起作用的时候、效果惊人地好。」加入内部,肯尼斯和乔尔看到开放性探索如何塑造了 OpenAI 的成功。例如 ChatGPT 本是一个意料之外的项目,它曾是内部几大方向中最边缘的;碰巧撞上了谷歌的 Transformer 架构;而 Dario Amodei(前 OpenAI 研发副总裁、现 Anthropic CEO)提出 Scaling Law(缩放定律)是为了测试模型安全性、而非涌现智能等等。随着 2022 年底 GPT-3.5 发布,全球人工智能行业开启了激烈竞赛。在二人看来,AGI 仍然是一个遥远的、而非近在咫尺的目标,仅靠 Scaling Law 这个「踏脚石」还不够。在这种情况下,开放性探索非常重要——而目前行业极具收敛的目标和计划、以及激烈的竞争,反而可能让研究走进「死胡同」。即便 OpenAI 也面临挑战,乔尔感觉到,一种紧张的氛围开始在内部出现,开放性探索的空间也在缩窄。2022 年,他们离开了 OpenAI。随着人工智能越来越强大,他们希望更多研究一些开放性命题,比如 AI 会如何影响人类和社会、如何从哲学角度看待 AI 等等。目前,乔尔加入了一家研究虚拟生命的公司,而肯尼斯创办了基于开放性系统的社交网络 Maven、并获得了 Sam Altman 的投资。他们都在开放性探索的路上继续前进着。以下为极客公园与肯尼斯、乔尔的对话实录,经整理后发布:《为什么伟大不能被计划》一书的中英版 | 图片来源:受访者OpenAI 看似是
「目标导向型」的成功,
实则是「开放性探索」的成功
极客公园:先从这本书的起源聊起,我很好奇你们十年前是怎么想到提出「为什么伟大不能被计划」这个观点的?你们最早研究人工智能的「开放性系统」,做了图片孵化器、机器人迷宫等实验,好奇哪些事实让你们觉得这个观点是成立的、并且可以应用到除了人工智能以外的其他领域?Kenneth:最初的想法来自于人工智能领域的研究,也就是我们所说的「开放性系统」(Open-Endedness)。这种系统早已存在,比如生物的演进,在几十亿年中,从单细胞进化为各种各样的动物。又比如简单的发明创造,我们可能花了数千年,才创造了一个轮胎、空间站和计算机等等。作为历史学家和计算机科学家,我们希望用算法打造一个「开放性系统」,想了解它的工作原理,怎么不断创新、产生非常有趣的东西。所以我们做了「图片孵化器」网站。这个 AI 系统没有任何目标,人们随机在上面将不同图片进行「繁殖」,这些图片会构成类似生物学「分支树」的关系。虽然每个用户都是从乱涂乱画开始的,但渐渐我们看到了一些熟悉的、可辨认的图片,比如蝴蝶、头颅、行星、汽车等等。我们进而得出一些有意思的洞察,比如你孵化出了一张酷似车的图片,但你最初并不是以此为目标的。而如果你以此为目标,你根本得不出这张照片。这是矛盾之处。遵循这样的原则,我们提出了基于新奇性探索、而非目标驱动的搜索算法。最后我们发现,这不仅适用于算法领域,也适用于个人和机构。每一个个人和机构都会设定目标,但这种目标驱动并不总是对我们的创造和发明奏效。Joel 和我觉得这个过程非常重要,值得公开说出来。我们试图找到相关信息、并进行多次对话,这就是我们这本书想法的来源。极客公园:可否理解为这本书的核心观点是,无论在算法、个人还是组织层面,面对一个更遥远的目标,制定计划不如自由探索有效?Joel:一般来说,普通的做法是我们树立一个目标、制定计划。但我们是不制定目标、只是去探索新奇的东西。比如迷宫里的机器人,如果给它制定走出迷宫的目标,那它可能很难走出这个死胡同。但如果不告诉它去哪里、而是让它自由探索,它会更容易走出迷宫。肯尼斯和乔尔做的「图片孵化器」网站,从乱涂乱画中出现了一些熟悉的、可辨认的图片 | 图片来源:受访者极客公园:我注意到,在你们刚出完这本书不久的 2015 年,OpenAI 成立了。这家公司从创立起就确定了一个非常伟大的目标,那就是实现 AGI,它的每个步骤都是围绕这个目标进行。今天我们看到,OpenAI 似乎取得了成功。所以我想问,在你们这本书出版后的十年里,OpenAI 的故事是否反而证明了「目的驱动模式」的成功?Kenneth:非常好的问题。我认为非常重要的一点就是要注意到,OpenAI 虽然取得了一定的进展,但还没有取得 AGI 的成功。另外,我们也要意识到,公司往往会向公众讲述目标,但这其实是它们一种叙述的手段,这并不意味着企业内部就是这么推动工作的。如果你去看 OpenAI 的幕后,你会发现它们不仅仅是目标导向的,它们也有很多有趣的、开放性的探索。实际上,ChatGPT 就是这样一种开放性探索,它是在一个意料之外的项目。我并不认为 OpenAI 的工作人员最早就设立了要做 ChatGPT 这个项目(的目标),或者说预见到了它能取得如此巨大的成功。它们只是在探索过程中发现这个项目非常有意思,然后一步步更新迭代才有了今天的 ChatGPT。我们书中也提到过,创新究竟该如何推进呢?其实就是我们从有趣的一些想法开始,那究竟它是否会将我们引导向最终 AGI 的成功呢?其实这并不一定,但这是非常重要的一步,它们最终都有可能带来革命性的变化。另外,它也能实现其他一些重要的成就,比如吸引更多的投资。我们知道 GPT-2 并没有带来巨大的革命性变化,但我们仍然要尽可能地宣传,才能吸引更多投资来发展 GPT-3、GPT-4,并最终向 AGI 的目标前进。OpenAI 就是这么做的,这正体现了我们书中的观点。Joel:OpenAI 看上去是一个目标导向型的成功,但其实 OpenAI 刚成立的时候,内部有尝试很多不同的发展方向。比如当时他们非常看重强化学习,包括视频、游戏的强化学习,为此内部做了很多尝试。而且 GPT 背后的核心技术是 Transformer 架构,这是由谷歌推出的,所以 OpenAI 也是在谷歌这样的巨人的肩膀上不断发展的。如果回顾 10 年前、20 年前、30 年前、40 年前,没有这么多「踏脚石」的情况下,OpenAI 也不可能取得这样的成功。极客公园:你们定义了 OpenAI 看似是目标导向、但其实是自由探索式的成功。OpenAI 内部人士曾跟我们说,铺垫 GPT 3.5 的几个「踏脚石」都是随机碰撞出来的,比如聊天机器人曾是内部最边缘的项目、碰巧撞上了谷歌的 Transformer 架构、而 Dario 提出 Scaling Law 也不是为了智能涌现而是想测试模型是否安全……这是否跟你们了解的情况接近?Joel:是的,这些随机探索的确是非常重要的。尤其是 OpenAI,它很早就开始推进 Scaling Law 等尝试,并且不断在做选择,这是非常正确的。Kenneth:的确探索很多时候是随机的、根据兴趣进行的。但 Dario 提出 Scaling Law,这不仅是一个随机的探索、这其实也是一个目标导向性的做法。这背后是团队从自己的兴趣出发、做了很多尝试,想要找到解决方案,最终提出了 Scaling Law 这个解决方案。这某种意义上也是一种目标导向。极客公园:所以开放探索和目标驱动并不是彼此对立的,而是可以统一和融合的?Kenneth:的确两者是可以并存的,能够从一方转向另一方。但是在我看来,这其实也是一个非常困难的问题。什么时候该进行转向?什么时候是目标导向、什么时候是兴趣导向?这非常微妙,很难去找到最佳的转变时机。极客公园:你们能够看到 OpenAI 的内核其实是一个「开放性探索」的组织,这是当初吸引你们加入 OpenAI 的重要原因吗?Joel:哈哈,有许多原因。一个最主要的当然因为 OpenAI 是 AI 领域的前沿公司。另外,它的确一开始就是一家「开放性探索」的公司,虽然它们肯定有一些目标导向的元素存在。这与我的个人兴趣也是相关的。所以确实很难拒绝这样一份工作。极客公园:那么 Sam 有看过你们这本书吗、他是否认同你们提出的「开放性探索」观点?这是他招募你们进入 OpenAI 的原因吗?Kenneth:Sam 非常喜欢我们书中的想法,我相信他是在观看了我关于这本书的演讲时接触到这些想法的。他曾在公众场合提到,他受到了这本书的一些想法的影响。Sam 对这些想法是非常包容和开放的,我觉得他暴露在这些想法当中、他认为这些想法非常有意思。当然,我在 OpenAI 也不仅仅是因为 Sam,内部很多人都有开放的想法。比如 Jeff Clune(前 OpenAI 研究团队负责人),他在我们之前加入 OpenAI。他也觉得,开放性探索是一个有趣且值得投资的领域。我们在那个时候达成了共识,所以我们被雇佣了。在我看来,这本书并不是 OpenAI 的工具书。但我相信,这一文化确实对他们有影响,开放性探索是非常重要的。极客公园:Ken 当时是 OpenAI「开放性探索」团队的负责人,当时 OpenAI 对你们的期待是怎样的?有给你们制定了怎样的目标吗?Kenneth:我们面临的挑战在于,几乎任何一家公司都会感兴趣设定目标。但如果我们探索的一些想法,并不完全是目标导向的、甚至会背离目标的话,我们肯定会面临一些沟通上的挑战。这有一些复杂,因此在日常的工作中,我们需要取得一个平衡。有时候很难理解我们来自哪里、雇佣我们干嘛。他们可能会非常奇怪,觉得我们做的是非客观性的一些东西。不过最终他们意识到,对于推动 AGI 来说,这些工作是非常有用的。这已经超出了传统团队的认识。Joel:这里面分为两部分:一个层面是关于组织的架构,很多人会困惑我们的工作,所以我们要跟他们解释我们在做什么,并找到我们工作跟 AGI 目标的关联度;另一方面是我们实际工作的开放性,要创造新的东西。就像 Ken 说的,我们需要在公司内部找到一种开放性的方法,既要让大家了解我们在做什么,也要新奇探索、取得进步,这两者的平衡是一种微妙的舞蹈。极客公园:你们是否感受到,在「开放性探索」上,OpenAI 这样的初创公司可能比科技巨头做得更好?我曾听说,Google 虽发明了 Transformer 架构,但没有率先做出 GPT,是因为它的技术路线更目标导向——Google 更强调 Encoder(输入),因为它可以解决更多具体业务问题;而 OpenAI 更强调 Decoder(输出),因为它没有那么强的业务导向,更愿意像无头苍蝇一样做「开放性探索」,你们怎么看?Joel:我的理解是谷歌也有这种对话模型,也是很领先的。谈到好奇、兴趣、技术能力、率先应用于大众等,我认为其中包含了不同的变量。谷歌是一个更大的机构,可能有更多的「橡皮章」、繁文缛节这些东西,而 OpenAI 可能更开放。Kenneth:我只是想说,涉及到任何一个大机构的成功,都包含了很多要素。不过我有一点我同意,OpenAI 确实在探索方面做得更好、它有更大的意愿去冒险,而谷歌可能在这方面更加谨慎和犹豫,比如在公众面前展示技术,谷歌可能会慢一步。这可以理解。因为谷歌作为一个大公司,在发布东西之前,需要做很多尝试和实验。他们更不愿意失败,它对于风险更有顾虑。但这并不一定是确定的,只是我们的看法。我们看到,谷歌注重强化学习和各种方法,OpenAI 也注重强化学习、并在不同领域下注,最终它们都取得了成功。极客公园:距离你们当时写这本书已经过去快 10 年了,中间你们还加入了 OpenAI、Uber 等科技公司,经历了这些再看这本书,你们觉得书中哪些观点仍历久弥新?哪些需要变化更新?Kenneth:回头望,这已经是我们这本书出版的第九年了。关于建立目标,我们有过非常多的、激进的争论,但许多事情随着时间的推移得到了验证。正如你刚才提到的一些例子,有些人可能会认为有些目标是有效的。但在过去十年的时间里,我们越来越发现,目标导向有时会让人感到困惑,会让你有盲点、抓不到其他机会、看不到更多的可能。我们认为十年后、甚至一百年后,这个观点可能都不会过时。在每一章中,我们都引入了一些历史案例和引语,比如「行者无疆」——一个好的旅行者是没有固定计划的,他对于要到达哪里并不太清楚——我不确定中国的哲学家老子是否在几千年前提出了这种描述。这是一种哲学的观点、一种经验之谈,并不是有很多科学证据,有时候听上去是反直觉的、是一个离经叛道的东西。社会中确实有一些问题,例如,整个社会的组织都在围绕目标推动,并且把「目标是非常重要的」这种文化意识强加给我们。以教育为例,老师根据考试内容教学、学生根据考试内容学习,这就是目标对教育的影响。在书中,我们强调了目标的影响是无处不在的,我们需要去挣扎往前走。再次强调一下,我们认为「伟大无法被计划」这个观点,是不会发生变化的。如果我们的人生只是目标导向的话,将无法取得完整的幸福。这也是为什么我们这本书如此成功和受欢迎的原因。沿着 Scaling Law、卷模型性能,
可能会走到「死胡同」
极客公园:虽然你们反对「目标导向」,但似乎目前全球人工智能界的目标都非常收敛且明确,一是追上 OpenAI 等公司、二是尽快实现 AGI,你们怎么看这种现象?这种「目标至上」会是你们反对的吗?Kenneth:谢谢您的问题。我同意在目前的人工智能行业中,大家定了这两个宏伟的目标,觉得「北极星」就在那儿、我们要朝着那儿走。不过回到我一开始说的,企业往往会对外有一套说辞,但它们内部可能并不是这样做的。我主要想谈一谈,我们到底离这样的目标有多远?如果说只差一个「踏脚石」、离得非常近,就像上世纪 60 年代制定登月计划的时候、已经有很好的技术基础,那么我们可以通过制定目标去实现。但问题在于,如果我们还需要很多个「垫脚石」、离目标还很远,那设定目标可能会让我们陷入困境、无法前进。历史上有很多这样的例子。比如在 2017 年,我们听到有人说第二年就会有自动驾驶汽车上路,但其实不是这样。因此,单纯采取目标导向的方法往往会无法实现目标,可能是因为目标设定的时间太早、或者太过雄心勃勃。很多人认为现在人工智能领域只差一个「踏脚石」,只需要扩大规模就可以了,这其实是过于简单化了这个问题。但在我看来,真正核心的「踏脚石」还没有被发现、我们并不仅仅差一个「踏脚石」。我们很可能正在陷入目标的陷阱和迷思之中。Joel:的确我们现在处于一个「荒诞」的历史阶段,全球的科技公司都在追求 AGI,这种过于聚焦的目标是人类「革命性的时刻」。但我们要知道,AGI 的发展还要很长的时间。现在许多人认为,只需要扩大规模、参数,有更多的数据和算力,就可以可发展人工智能。这对我来说有些无聊,或者说有些无趣。这并不是最核心的「踏脚石」,我相信还有其他的路径和方法需要我们去探索。极客公园:为什么我们离 AGI 不只是「一步之遥」、不只差一个「踏脚石」?你们做出这个判断的依据是什么?Joel:我们到底距离 AGI 有多远,其实大家是有认知偏差的。就像自动驾驶一样,并不太清楚到底需要多少个「踏脚石」。我们唯一确信的是,如果有一步之遥的东西,你必须要在那里、你必须去做、必须去放大。Kenneth:最近有一个类比,GPT-3 就像是一个孩子,GPT-4 像是高中生。但实际上,ChatGPT 更像是教科书中的知识,在某些方面,它可能超越了我们,而在其他方面,它可能不如我们。奇特之处在于,我们会感到某些东西非常接近了,但这不一定是 AGI。但我们也不清楚究竟还要等待多久。我们甚至可能需要一位「爱因斯坦」的出现,才能达到下一个台阶。极客公园:这让我想到你们在书里提到,其实从单细胞到人类的进化过程中,重要的「踏脚石」不只是智力,还包括对称性等。那么对于 AGI 来说,Scaling Law 带来的智能提升会是一个靠谱的踏脚石吗?它能支撑多久?Kenneth:智能这个词很容易让人困惑,因为它涉及许多方面。Scaling Law 遵循一些普遍的原理,但它也会丧失一些东西。比如在技术上,你必须将大量人类数据进行更好的压缩和训练,它不再是传统意义上的智能、而是不断提升的智能。我们最终可能会遇到一个瓶颈或死胡同、会在训练上遇到走不下去的时刻。就像 OpenAI 在不断扩大规模、增加参数,但它还是遇到了瓶颈(注:比如 GPT-5 处于难产状态)。这也是为什么我们需要新的踏脚石。Joel:如果想要达到 AGI 那模糊的彼岸,有点像做一个赌注,很多明显的路径都必须要去尝试。因为 AGI 可能不仅来自 AI,还可能来自数学、哲学和其他领域。《神经语⾔模型的缩放定律》论文写道,随着模型⼤⼩、数据集⼤⼩和⽤于训练的计算量的增加,语⾔建模性能平稳提升 | 图片来源:OpenAI极客公园:现在各大人工智能公司都在这一维度激烈竞逐,而你们在书里提到,竞争其实跟「开放性探索」相悖、因为它是极其收敛的目标。你们怎么看待现在人工智能领域的激烈竞争?Kenneth:这就是目标导向的悖论,它会使得我们更加盲目,对其他方法和路径视而不见。像 OpenAI、Anthropic 和 Google 这样的公司,它们存在激烈竞争,因为哪家如果落后了,就可能无法获得更多资金,公司会受到生存威胁。在这种竞争中,大家唯一的目标就是活下来。公司更倾向于继续沿着既定路径前进、扩大规模。如果这时候尝试创新,会面临失败的风险、可能会被踢出局。所以创新往往会减少。我认为在这样的竞争环境下,很容易进入死胡同。不过当这些企业遇到瓶颈时,他们可能会意识到需要转向、进行更多开放性探索。极客公园:这跟很多人的看法相反,一般我们认为激烈竞争会推动模型智能水平的提升、加速 AGI 的实现,但在你们看来反而会适得其反?激烈竞争会弊大于利吗?Kenneth:是的,这可能有些反直觉。虽然竞争会引发「军备竞赛」,使得模型性能有所提升,但过度的竞争会减少开放性的尝试,使得创新更加聚焦和局限、无法取得真正的进展。极客公园:说了这么久的「开放性探索」,那么对于现在目标和路径已经相对明确的人工智能企业来说,它们应该怎样才能做好这件事?你们对于「开放性探索」有没有一些建议?Kenneth:我们会发现,很多公司太早就建立了一套体系,并且非常目标导向。如果一些探索在测试中表现不佳,他们就会放弃研究。我认为这会减少开放性探索的机会,是非常不利的。对于 AGI 也是如此。当前的 Transformer 架构可能还远远不够,甚至我们对神经网络的运作机制还了解得不够,目前仍有许多失败的案例。我们并不清楚究竟还差多少步才能实现 AGI,因此我们需要多重的、开放性的探索。在当前阶段,对于 OpenAI 和其他公司来说,它们不仅需要改善现有的模型、更需要探索新的路径,这两件事需要同步推进。离开 OpenAI,人工智能界
还需要更多「开放性探索」
极客公园:不久前 Ken 接受了一个采访,提到你离开 OpenAI 是因为「有一些的沮丧、有一些顿悟」,我好奇你的「沮丧」、「顿悟」是什么?方便跟我们分享一下吗?Kenneth:让我想一想,我并不是说我对 OpenAI 不满意,而是我越来越意识到,我对人工智能的影响存在一些担忧。现在有很多关于人工智能消极影响、安全以及文明终结的讨论,这都是很明显的一些问题。我越来越感觉到,社会中存在一些对人工智能的不满情绪、人们感到越来越多的失落,大家会追问生命的意义究竟是什么?比如,未来机器人可能有数百万个非常好的想法,一秒之间就可以超越我们一生的成就、或者比我们个人多年的经验更具智慧,那么我们如何再去做有创意性的工作、并从中获得成就感呢?这是一个非常严重的问题。我感觉我的工作,似乎在某种程度上加剧了人们的这种担忧和焦虑。因此,我想思考人工智能未来的发展方向、解决它深层次的问题——我们究竟该如何改善人工智能,使其更好地为人类服务,促进人类之间的连接,而不是加剧竞争?这是我最近非常关注的问题,我认为需要进行开放性探索,我相信这对人类社会会更有助益。基于这样的原则,我成立了一家自己的公司,希望建立一种开放性的社交网络。极客公园:你创立了 Maven,它是一款基于开放性探索的社交产品,可不可以介绍下 Maven 是一个怎样的产品?为什么它能解决你提到的人工智能存在的问题?Kenneth:你可能也注意到一些社交媒体存在的问题,比如信息茧房、对立观点、不断争论的意识形态导向、甚至阴谋论等。那么这些问题从何而来呢?实际上,这是因为这些系统的质量有问题。几十年前人们就曾说过,人们会产生各种各样的观点和内容,但很多内容是负面的或不好的。而现在的社交媒体过于关注内容的受欢迎程度。我们认为这种信息分发模式需要改进。所以我创立了 Maven,这是一个基于内容质量来推荐的「开放性系统」。人们打分、评价,去找到好的内容。这种客观的评价方式、而不是靠点赞排序,才能带来更好的内容。极客公园:我注意到 Twitter 的联合创始人投资了你、Sam 也投资了你,为什么 Sam 会决定投资你?他对你这次创业有没有提出建议?Kenneth:Sam 的确投资了我的公司。我写完这本书之后,也想让「开放性系统」被更多人使用,于是萌生了成立自己公司的想法。从职业发展的角度,Sam 给了我许多建议和见解。从孵化投资人到 OpenAI 的 CEO,Sam 自己的职业发展就是非常了不起的跨越。他给我的建议是,我们不一定要沿着一份工作、一条道路前进,我们的职业发展也可以非常多元化。这给我很大的启发。极客公园:Joel 离开 OpenAI 的原因是什么呢?Joel:主要是我的职业发展追求跟它不再完全契合。最初加入 OpenAI 时,这家公司还处于比较基础的阶段,内部有机器人、人工智能等多个研究方向。然而,后来这家公司变得更加聚焦,我也注意到公司内部存在一些紧张的氛围,这对开放性探索有一定限制。正如 Ken 提到的,我们需要考虑到 AI 对社会的影响、一些哲学问题、还有如何利用人工智能让个人更好发展等等,这些都是很有趣的研究角度。我希望能继续研究,而 OpenAI 可能并不是发展这些兴趣的最佳场所。离开 OpenAI 后,我加入了一家研究虚拟生命(artificial life)的初创公司,现在还在继续从事开放性系统的研究。肯尼斯加入 OpenAI 时发布的推文 | 图片来源:X极客公园:你们提到,即使是 OpenAI 这样最顶尖的人工智能公司,随着公司规模的扩大,它在开放性探索上的投入也开始变得紧张。你们对此有什么担忧吗?Kenneth:的确如此,资金的压力还是非常明显的,如果没有明确的回报,管理层可能会减少开放性探索的投入。不过对于一些创新型的初创企业来说,应该还好。像 llya(注:OpenAI 前首席科学家)刚刚离开了 OpenAI,成立了自己的公司。他说他唯一的目标就是实现 AGI,而且投资不是大问题。这表明即使没有明确的回报,也能得到资金支持,许多研究人员都在进行各式各样有趣的探索。关于 OpenAI,有人说它现在变得更加商业化,我不太确定。不过内部肯定还有一些开放性探索的机会。因为商业化并不是 OpenAI 的最终目标,也不是很多 OpenAI 研究人员的唯一目标。极客公园:Sam 有跟你们聊过这方面的困惑吗?比如随着公司规模变大,他是否感到开放性探索更难做了?Kenneth:这是一个非常有趣的问题。我不太清楚 Sam 的脑袋里在想什么,因为他没有跟我聊过这些。极客公园:最终回到个人,你们是人工智能研究员和创业者、也是普通人。如果你们自己有一个看起来很远大的、又很不确定的目标,你们会怎么实现它?你们对普通人有什么建议吗?Joel:作为一个研究者,有些东西可能是似是而非的。我们书中的一些想法并不一定直接带来成功,有时需要我们慎重认真的看待和广泛阅读。作为个人,我认为保持谦卑、开放探索的心态非常重要。因为伟大是不能被计划的,但我们可以找到伟大中的亮色。Kenneth:作为个人,你要保持均衡。比如当你过于专注于目标,生活可能就没有那么有趣。就像有人的目标是赚钱,但如果发现了其他有趣的机会,即使这个机会的收入并不高、也不在主流地带,我也建议他尝试。作为研究者,事实上,我想都没想过什么东西会导致 AGI。我相信直觉。也就是说,我会遵循我的兴趣行动,而这会引导我发现更多的有意思的东西。看起来我离目标更远了,但实际上,兴趣才会通往最终目标的实现。本文为极客公园原创文章,转载请联系极客君微信 geekparkGO扎克伯格:相比开源的风险,更担心 AI 被集体掌控。
文章来源: https://mp.weixin.qq.com/s?__biz=MTMwNDMwODQ0MQ==&mid=2653053363&idx=1&sn=bb1663f63e7e8304f8b41de235927b9f&chksm=7e571c0549209513ccc5ede15a4aa6bd7fb0ab1f648d50b54327ff0368e889e1c2736b47a16f&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh