暂停巨型人工智能实验 马斯克、ChatGPT之父、图灵奖得主等全球大佬都签了

3月22日,生命未来研究所 (Future of Life) 《暂停大型人工智能研究》的公开信向全社会发布,呼吁所有人工智能实验室立即暂停GPT-4 人工智能系统训练较强,暂停时间至少为 6个月

目前,该公开信已获得超过1100个人士支持,包括埃隆马斯克、山姆奥特曼、约书亚本吉奥(2018年图灵奖得主)等知名人士。

公开信正文

大量研究表明,具有人类竞争智能的研究表明, AI 该系统可能对社会和人类构成深远的风险,这一观点也是最高的 AI 实验室的认可。

正如广泛认可的阿西洛马人工智能原则(著名阿西莫夫机器人三大规则的扩展版)所述,高级 AI 它可能代表着地球生命史上的深刻变化,应以相应的关怀和资源进行规划和管理。

不幸的是,这种水平的规划和管理并没有发生,尽管人工智能实验室近几个月陷入了一场失控的竞争,但没有人——甚至他们的创造者——无法理解、预测或可靠地控制,以开发和部署更强大的数字思维。

现在,当代人工智能系统在一般任务上已经变得与人类竞争,我们必须问自己:

  • 我们应该让机器用宣传和谎言来填补我们的信息渠道吗?

  • 我们应该自动化所有的工作,包括令人满意的工作吗?

  • 我们是否应该最终超越我们,超越我们,过时,取代我们的非人类思维?

  • 我们应该冒险失去对文明的控制吗?

这些决定显然不能委托给未经选举的技术领导者。只有当我们确信它们的影响是积极的,它们的风险是可控的时候,我们才应该开发一个强大的人工智能系统。这种信心必须有充分的理由,并随着系统的潜在影响而增加。

OpenAI最近关于通用人工智能的声明指出,“在某些情况下,在未来系统开始训练之前独立审查对于最先进的努力,同意限制用于创建新系统的计算增长率模型可能非常重要。” 我们同意这一观点,并认为现在我们要采取行动

因此,我们呼吁所有人工智能实验室立即暂停训练比例 GPT-4 更强大的人工智能系统(包括目前正在训练的) GPT-5)至少 6 个月。这种暂停应该是公开和可验证的,包括所有关键参与者。如果这种暂停不能很快实施,政府应干预并暂停。

人工智能实验室和独立专家应利用这一暂停,共同开发和实施高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格的审计和监督。毫无疑问,这些协议应该确保遵守它们的系统是安全的。

这并不意味着整体暂停 AI 开发只是从危险的竞争转向具有紧急功能的更大不可预测的黑盒模型。

人工智能的研发应重点关注使当今强大、最先进的系统更加准确、安全、可解释、透明、稳定、一致、值得信赖和忠诚。

与此同时,AI 为了显著加快强大的发展,开发人员必须与政策制定者合作 AI 治理系统。这些至少应包括:

  • 专门负责 AI 新的、有能力的监管机构;

  • 监督和跟踪高性能人工智能系统和大量计算能力;

  • 来源和水印系统有助于区分真实性、合成性和跟踪模型泄漏;

  • 强大的审计认证生态系统;

  • 人工智能造成的伤害责任;

  • 为技术人工智能安全研究提供强有力的公共资金;

  • 以及资源充足的机构来应对人工智能造成的巨大经济和政治破坏。

人类可以享受人工智能带来的繁荣未来。成功创造强大的 AI 在系统之后,我们现在可以享受“AI 夏天,收获回报,设计这些系统,造福所有人,为社会提供适应的机会。社会已经暂停了其他可能对社会产生灾难性影响的技术。

我们可以在这里这样做。让我们享受一个漫长的时间 AI 夏天,而不是毫无准备地陷入秋天。

聚集行业大佬

马斯克、山姆·奥特曼、约书亚·本吉奥(2018年图灵奖得主)已有1000多人在公开信上签字。、巴勃罗·贾里洛·埃雷罗(石墨烯领域的顶尖专家)和其他行业领袖。

以下是部分名单:

Elon Musk,SpaceX、Tesla 和 Twitter 首席执行官

Sam Altman,OpenAI首席执行官

Steve Wozniak,苹果联合创始人

Emad Mostaque,Stability AI 首席执行官

Yoshua Bengio,蒙特利尔学习算法研究所所长因开发深度学习而获得图灵奖

Stuart Russell,伯克利计算机科学教授、智能系统中心主任、标准教科书“人工智能:现代方法”的合作者

Pablo Jarillo-Herrero,美国国家科学院沃尔夫物理学奖麻省理工学院物理学教授

John J Hopfield,联想神经网络的发明者普林斯顿大学名誉教授

Connor Leahy,Conjecture 首席执行官

……

担心顶级精英

业内人士对人工智能的担忧越来越多。

OpenAl公司首席执行官山姆·阿尔特曼(Sam Altman) 最近,他对人工智能说,(AI)技术潜力令人兴奋,但它也“有点害怕”一些潜在的滥用行为。它还说:“它有巨大的前景和巨大的能力,但随之而来的危险也很大。”

「人工智能教父」Geoffrey Hinton最近在CBS NEWS在接受采访时表示,人工智能正处于一种状态「关键时刻」,通用人工智能 (AGI) 出现比我们想象的更接近

马斯克在2023年世界政府峰会上谈到了ChatGPT,认为人们需要在短期内警惕人工智能的安全,并呼吁监督人工智能。

“我担心的是,对于人工智能来说,如果有问题,从监管的角度来看,反应可能会太慢。我想说,人工智能是未来文明面临的最大风险之一。

但人工智能既有消极的一面,也有积极的一面。

“它前途无量,实力雄厚,但也伴随着巨大的危险。看看核物理的发现,我们可以得到核能发电,但它也带来了核弹。”

“简而言之,我认为我们应该密切关注这个问题,我们应该从根本上监督公众的风险。”马斯克说。

写在最后

从 ChatGPT3、ChatGPT4,再到文心,AI几乎以指数级的速度发展。在人工智能时代的飓风中,人类未来应该去哪里?...

本文的部分内容来自网络,仅供参考。如有侵权行为,请联系删除。

相关推荐