要不要限制AI?我们把与GPT-4有关的观点收集全了

三体中的降临派、拯救派和幸存派代表着不同的观念和立场。借用这三个概念,我们可以做到 AI 有意见的人分为 AI 降临派、AI 拯救派和 AI 幸存派。

AI 降临派:

这一派的人认为 AI 它的发展将给人类带来巨大的好处,甚至取代人类成为地球的主导力量。他们相信 AI 它可以解决气候变化、资源分配、疾病治疗等许多人类问题。AI 降临派的人通常是对的 AI 技术非常热衷于支持无限发展和应用 AI 技术,期待 AI 在未来改变世界。

AI 拯救派:

这一派的人认为 AI 它是人类发展的关键,但它需要在一定范围内得到监督和指导。他们认为,通过合理的政策制定和道德约束,可以确保 AI 技术的安全性和可持续发展。救援派关注 AI 在维护人类利益的同时,期望对社会和个人的影响 AI 成为人类的得力助手。

AI 幸存派:

这一派的人是对的 AI 技术持怀疑甚至担忧的态度。他们认为 AI 技术的发展可能会导致失业、隐私侵权、安全威胁等一系列问题。幸存者认为人类应该小心 AI 寻求和发展技术 AI 和谐共存的方法。他们强调 AI 平衡潜在风险,提倡谨慎和谨慎的态度 AI 技术利弊。

这三派的划分并没有严格按照《三体》原有的定义(原来的降临派要毁灭全人类,拯救派要拯救三体人,幸存派要卖掉人类利益为后代谋生的空间),而是以人为本 AI 划分接受程度和监管力度。

来临派(欢迎) AI 降临)接受度最高,救援派(使用) AI 幸存派(在)次之 AI 时代幸存)最保守,让我们理解自己的立场。

让我们来看看本周三派的观点碰撞。

降临派

吴恩达:暂停 AI 开发不可行

本周,一封由数千人签署的公开信火遍布全网,一个名为未来生命研究所的公开信火遍布全网(Future of Life Institute)全球机构呼吁至少暂停六个月的开发比 GPT-4 更强大的模型可以跟上相关的监管手段。

人们在这封信上看到了许多著名人士的签名,包括图灵奖得主 Yoshua Bengio、马斯克,史蒂夫 · 沃兹尼亚克,Skype 联合创始人,Pinterest 联合创始人,Stability AI CEO 等人。

这封信爆炸后,人们发现一些知名人士的签名其实是网友冒签的,所谓千人签名的真实性值得怀疑。

无论如何,这封公开信还是激起了人们是否禁止它 AI 讨论研究。

著名的计算机科学家,Google Brain 联合创始人吴恩达在社交媒体上表达了他对这封信的看法。

他认为,让有关部门暂停他们不了解的新兴技术,更好的是反竞争,更坏的是坏的先例。

以下是他观点的原文:

要求在 6 禁止每月进行比较 GPT-4 进一步的研究是一个可怕的想法。我在教育、医疗保健、食品等方面看到了许多新的应用。。这将帮助许多人。继续改进 GPT-4 它将有助于这些领域。我们应该权衡 AI 现实中创造的巨大价值和风险。

除非有关部门介入,否则没有切实可行的办法暂停并阻止所有团队扩张 LLM(大语言模型)。让相关部门暂停他们不知道的新兴技术是反竞争的,建立了可怕的先例,这是一项糟糕的创新政策。

负责任的人工智能非常重要,而且有风险。主流媒体报道称,人工智能公司疯狂地发送不安全代码是不正确的。绝大多数人工智能团队(不幸的是,并非所有人工智能团队)都认真对待人工智能和安全问题。

暂停 6 一个月不是一个可行的建议。为了提高人工智能的安全性,相关的透明度和审计规定应该变得更加可行,并产生更大的影响。让我们在促进技术进步的同时,投资更多的安全,而不是扼杀进步。

Jim Fan:我们应该欣赏 GPT-4

针对大语言模型的安全性,英伟达 AI 科学家 Jim Fan 提出了一个有趣的观点。

他认为按照 AI 行为准则,所以大多数人类也是「不安全」是的,许多大语言模型在安全性和公正性方面表现得很好,我们不应该盲目地批评它们。

以下是他观点的原文:

按照 GPT 的「伦理与安全」我们大多数人也表现出不理性、偏见、不科学、不可靠的指导方针。一般来说,——「不安全」。事实上,我们对人工智能的要求更高。这是一件好事,我完全支持做更多。但有些事情并不快乐。

我指出这一点的原因是让每个人都知道整个研究小组的安全校准工作有多困难。大多数培训数据本身都有偏见、有毒、不安全等。事实上,创建一个安全的人工智能助手是违反人类数据分布的。

从某种意义上说,许多生产型 LLM(Claude,Cohere,GPT)在安全和公正方面「超人」,尽管它们并不完美。对我们来说,潜意识地批评失败的案例比欣赏挑战(和成就)更容易。

拯救派

Sam Altman:确保 AGI 惠及全人类

生命研究所公开信将向生命研究所发出 OpenAI 在舆论风暴中,OpenAI 的 CEO Sam Altman 在 Twitter 但他说他仍然很平静,并提出了建立 AGI三个要点(通用人工智能)。

以下是他观点的原文:

我们需要 AGI 美好的未来和努力

1、调整超智能技术能力

2、充分协调大多数主要产品 AGI 的工作

3、包括民主治理在内的有效全球监管框架

此前,Sam Altman 在 Lex Fridman 采访播客曾经说过,他们会告诉他们 OpenAI 他害怕技术,说:

当人们认为这是一个巨大的飞跃时,我会说,我有点害怕,我认为这很奇怪。

我认为一点也不害怕的话是疯狂的,我同情那些非常害怕的人。

Sam Altman 更关心的是「虚假信息问题或经济冲击」,而不是如何用算法制造算法「超级智能」。他认为有些公司不会像他认为的那样 OpenAI 设置如此严格的安全围栏,并担心这会导致 AI 失控造成不良社会影响。

马云:ChatGPT 只是 AI 时代的开始

回国后,马云来到云谷学校,聊了聊 ChatGPT 影响教育领域。马云说,ChatGPT 这种技术给教育带来了挑战,但是 ChatGPT 这种技术只是 AI 时代的开始。

以下是他观点的原文:

我们需要用人工智能来解决问题,而不是被人工智能控制。虽然人的体力和脑力无法与机器相比,但只有机器「芯」,而人有「心」。工业时代是知识驱动和知识竞争;数字时代是智慧驱动、创造力和想象力、领导力、责任感和独立思考的竞争。

幸存派

Gary Marcus:什么都不做是不对的

纽约大学心理学和神经科学的退休教授 Gary Marcus(他同时还是 AI 畅销书《Rebooting.AI》作者)一直是对的 LLM 保持批评的态度。

当生命研究所的公开信发布时,Gary Marcus 可以说是这一观点最坚定的支持者。

面对公开信受到的质疑,Gary Marcus 作出了很长的回应,以下是他的观点原文:

很多针对 6 超大型培训禁止每月进行 #LLM 攻击没有抓住要点。

这里有这么多的利益关系,这里有一个 Twitter # long gread 真正重要的是整理出什么:

许多对这封信的攻击都集中在赞助商身上,而不是签名人。大多数签名的人(比如我,约书亚 · 本吉奥等。)和 FLI 没关系。判断这封信应该看它写了什么,而不是谁写的。真正的消息不是埃隆 · 马斯克签署了协议,但是有那么多人不是天生的盟友(比如本吉奥和我,因为 2019 年的激烈辩论而闻名)出于共同关心而走到了一起。

提出不同的选择没有错,大多数批评这封信的人也没有给出适当的解决方案。

什么都不做是不好的。几乎所有人,甚至包括 OpenAI 他们都承认存在严重的风险,但到目前为止,有关部门或行业还没有采取任何实际措施来降低这些风险。

并非所有签署这封信的人都主要关心长期风险; 许多签署这封信的人至少也担心短期风险。

这封信没有呼吁禁止人工智能。不需要永久禁止。它没有呼吁禁止。 GPT-4.它没有呼吁禁止绝大多数人工智能研究,只是暂停了一个非常具体的项目,该项目的技术已经「知道」有风险,但没有已知的解决方案。实际上需要更多的研究。有人看过这封信吗?

我个人没有改变;我还是觉得 LLM 这是不可靠的。我仍然认为他们表达事实的能力很差。我不认为他们很接近 AGI。但这并不意味着他们没有撕裂我们社会结构的潜力ーー特别是考虑到目前的混合情况:不可思议的广泛和快速部署、企业不负责任、缺乏监督和不可靠性。

Eliezer Yudkowsky:暂停是不够的。我们应该把它停下来 AI 永远关闭!

Eliezer Yudkowsky 它是著名的人工智能科学家和作家,也是机器智能研究所(MIRI)联合创始人,MIRI 致力于确保超人工智能对人类有友好的价值观。

未来生命研究所公开信爆炸后,Eliezer Yudkowsky 在《时代(Time)》上面发表了一个名字《Pausing AI Developments Isn't Enough. We Need to Shut it All Down》文章。

一开始,他没有签字,因为这封信低估了情况的严重性,要求太少,无法解决问题。

本文提到了人工智能变得比人类更聪明后可能造成的危害,Eliezer Yudkowsky 提出了一个相当消极的观点:

我们还没有准备好。我们没有在任何合理的时间内做好准备。没有计划。人工智能能力的进步是巨大的,远远领先于人工智能排列,甚至了解这些系统发生了什么。如果我们真的这样做(让它发展),我们都会死。

Eliezer Yudkowsky 不久前接受了 Lex Fridman 在采访中,人类没有机会第二次校准人工智能,如果人类失败,人类就会灭亡。

本文的部分内容来自网络,仅供参考。如有侵权行为,请联系删除。

相关推荐
ChatGPT国内能用吗?ChatGPT国内注册方法
2023-06-28

ChatGPT国内能用吗?ChatGPT国内注册方法

Chat GPT被定义为一种生成语言模型,它被理解为经过训练和设计以进行自然对话的人工智能聊天。最近ChatGPT在国际上很火爆,很多投资者就想知道ChatGP...