原作者:MARC ANDREESSEN
AI时代带来了惊喜和恐慌,但好消息是 AI 不会毁灭世界,反而可能拯救世界。
如何理性看待AI,又应该从哪些视角来看待AI? 这篇文章为我们提供了一个可行、可信与可深入的探讨范例。
AI 时代已经到来,惊喜之余也带来许多惊慌。幸运的是,我在这里带来好消息:AI 不会毁灭世界,事实上可能拯救世界。
AI 不是杀手和机器人,会启动并决定谋杀人类或以其他方式破坏一切,就像你在电影中看到的那样。而 AI 可能成为使我们关心的一切变得更好的方法。
社会科学多年来进行了数千项研究,最具有可靠性的核心结论是:人类的智慧可以改善生活结果。聪明人在几乎所有活动领域都有更好的结果:学业成就、工作表现、职业地位、收入、创造力、身体健康、寿命、学习新技能、管理复杂任务、领导才能、创业成功、冲突解决、阅读理解、金融决策、理解他人的观点、创意艺术、育儿结果和生活满意度。
AI 为我们提供了一个增强人类智慧的机会,使得所有智慧成果——从创造新药到解决气候变化到星际旅行等——都可以从这里开始变得更好。
在我们这个 AI 的新时代中:
简而言之,人们今天用自己的自然智能所做的任何事情都可以通过 AI 更好地完成,从治愈所有疾病到实现星际旅行。
然而,这里的风险很高。 AI 可能是我们文明创造的最重要、最好的东西,与电力和微芯片相当,甚至可能更超越它们。
那么为什么会出现恐慌呢?
我们听到各种声音称 AI 将杀死我们所有人,毁坏我们的社会,夺走所有的工作,引起严重的不平等。如何解释这种从近乎乌托邦到反乌托邦结果的差异如此之大?
当然,许多新技术确实导致了不良后果——通常是那些在其他方面对我们非常有益的技术。因此,仅仅存在一种道德恐慌并不意味着没有什么需要关注的问题。
现在我们已经出现了 AI 道德恐慌。
但他们是吗?
经济学家已经观察到这种改革运动中的一个长期存在的模式。此类运动内部的行为者分为两类——“洗礼者”和“走私者”——借鉴了 20 世纪 20 年代美国禁酒令的例子:
对于酒禁,这些行为者通常是真正虔诚的基督教徒,他们认为酒精正在摧毁社会的道德基础。对于 AI 风险,这些行动者相信 AI 可能会产生某种存亡风险——如果给他们一个测谎仪,他们真的是这么想的。
在 AI 风险中,这些人是 CEO,如果建立监管壁垒,这些 CEO 将赚更多的钱,因为政府保护它们免受新创业公司和开源竞争的影响。
“走私者”的问题在于他们胜利了。 “洗礼者”是天真的意识形态者,“走私者”是愤青的操作者,所以这类改革运动的结果通常是“走私者”得到了他们想要的——监管、对竞争的保护——而“洗礼者”则疑惑着他们的社会改进驱动力哪里错了。
因此,在实践中,即使“洗礼者”是真诚的——即使“洗礼者”是正确的——他们也会被狡猾和贪婪的“走私者”利用来获益。
AI 风险#1:AI 会杀死我们所有人吗?
最初和最原始的 AI 风险是 AI 将决定杀死人类。
这个神话的假设进化目的是激励我们认真考虑新技术的潜在风险——毕竟,火确实可以用来烧毁整个城市。但正如火也是现代文明的基础一样,可以用来使我们在寒冷而充满敌意的世界中保持温暖和安全,这种神话忽略了大多数(全部?)新技术的利远大于不利方面,并在实践中引起了破坏性情绪而非理性分析。仅因为史前人类会像这样崩溃并不意味着我们必须这样做;我们可以运用理智。
简而言之,AI 没有意愿,没有目标,不想杀死你,因为它不是活着的。
我的回应是,他们的立场是非科学的——有什么可测试的假设?什么可以证明这一假设不成立?我们如何知道我们正在进入一个危险区域?这些问题大多没有得到回答,除了“你无法证明它不会发生!”事实上,这些“洗礼者”的立场非常非科学和极端——关于数学和代码的阴谋论——并且已经呼吁采取身体暴力,所以我将做一些我通常不会做的事情,并质疑他们的动机。
首先,回想一下,约翰·冯·诺伊曼对罗伯特·奥本海默有关他在创造核武器方面的作用——这有助于结束了二战并防止了第三次世界大战——的回应是:“有些人会承认罪行以获得荣誉。”怎样才能以最引人注目的方式声称自己工作的重要性,而不显得过分自夸呢?这解释了实际上正在建造和资助 AI 的洗礼者的言辞和行动之间的不匹配——看他们的行动而不是他们的话。
第三,在加利福尼亚州,我们因成千上万的异端组织而名声大噪,从 EST 到人民神庙,从天堂之门到曼森家族都有。其中许多,虽然不是全部,这些异端组织是无害的,甚至可能为在其中找到家园的疏离人群服务。但是,有些确实非常危险,而且邪教通常很难跨越导致暴力和死亡的界线。
正是因为这个邪教存在,才会有一些听起来非常极端的 AI 末日论者——并不是说他们实际上具有使其极端化合理的秘密知识,而是他们自己把自己激动到了狂热状态,确实是……非常极端。
“千禧主义是指一个团体或运动(AI 风险末日论者)相信社会将发生根本性的变革(AI 的到来),此后一切都将改变(AI 乌托邦、反乌托邦或者世界末日)。只有戏剧性的事件(禁止 AI、对数据中心进行空袭、对未受监管的 AI 进行核打击)才能改变世界(防止 AI),并且这种变革预计将由一群虔诚和专注的人带来或幸存下来。在大多数千禧主义情况下,即将到来的灾难或战斗(AI 启示或其预防)将被一个新的、净化的世界(AI 禁令)所跟随,在这个世界中,信徒将获得回报(或至少被证明一直正确)。”
不要误会,邪教听起来很有趣,他们的写作材料通常很有创意和迷人,他们的成员在晚宴和电视上也很引人入胜。但是,他们极端的信仰不应该决定法律和社会的未来——这显然是不可取的。
AI 风险 #2:AI 会毁了我们的社会吗?
第二个广泛讨论的 AI 风险是,AI 将毁掉我们的社会,因为它产生的输出将是如此“有害”的,以这种邪教者的术语来说,即使我们没有被直接杀死,也会对人类造成深刻的伤害。
这是一个相对较新的末日论者担忧,分支出来并在一定程度上接管了我上面描述的“AI 风险”运动。事实上,最近 AI 风险术语从“AI 安全”变成了“AI 对齐”(用于担心社会“危险”人士使用 AI)。最初的 AI 安全人士对这种转变感到沮丧,尽管他们不知道该如何将其放回原处——他们现在主张将实际的 AI 风险主题重命名为“AI 不杀每个人主义”,虽然还没有被广泛采纳,但至少这是明确的。
恰好,我曾亲眼目睹了一个相似的情况——社交媒体的“信任和安全”之战。正如现在显而易见的那样,多年来社交媒体服务一直受到政府和活动家们的巨大压力,要求封禁、限制、审查和其他方式压制各种内容。同样关于“仇恨言论”(及其数学对应物“算法偏见”)和“错误信息”的担忧也被直接转移从社交媒体领域到“AI 对齐”这个新领域。
一方面,没有绝对自由言论的立场。首先,包括美国在内的每个国家都会将某些内容视为违法。其次,有某些类型的内容,如儿童色情和煽动暴力,几乎被所有社会普遍认为是无法容忍的——无论是否合法。因此,任何促进或产生内容(言论)的技术平台都将有一些限制。
因此,这就是现在围绕“AI 对齐”形成的动态。其拥护者声称有智慧来设计对社会有益的 AI 生成的言论和思想,并禁止对社会有害的 AI 生成的言论和思想。反对者认为,思想警察们极其傲慢和自负——在美国至少往往是明目张胆的犯罪。
派系道德标准所施加的社交媒体和 AI 的支配性正在加强,如果您不同意这种道德标准,那么您还应该意识到,对于 AI 被允许说/生成什么的争夺将比社交媒体审查的争夺更加重要。 AI 极有可能成为全球一切事物的控制层。
AI 风险 #3: AI 会夺走我们所有的工作吗?
由于机械化、自动化、计算机化或 AI 而失去工作的恐惧已经是数百年来一直存在的恐慌,自机械织布机这样的机械设备问世以来就如此。尽管历史上每一次新的主要技术革命都带来了更多的高薪工作岗位,但每次这种恐慌浪潮总伴随着“这一次不同”的说法——这次它将最终发生,这项技术将给人类便宜劳动力带来致命打击。然而,这从未发生过。
尽管如此,这个错误的观念却不会消失。
这一次,我们终于拥有了一个将夺走所有工作岗位并使人类劳动力变得无关紧要的技术—— AI。这一次历史不会重演,AI 将导致大规模失业——而不是经济、就业和工资的快速增长——对吗?
自动化导致失业的言论者一直犯的核心错误被称为“劳动力谬误”。这种谬误是错误的观念,即在任何特定时刻经济中有一定数量的劳动力要完成,要么机器完成,要么人类完成——如果由机器完成,则将没有工作可供人类完成。
但好消息并不止于此。我们还会得到更高的工资。这是因为,在个体工人层面上,市场将补偿设置为工人的边际生产率函数。与传统企业中的工人相比,技术注入业务中的工人将更具生产力。雇主要么会因为他现在更有生产力而支付给该工人更多的工资,要么另一个雇主会出于自身利益这样做。结果是,通常情况下,引入技术到一个行业不仅会增加该行业的就业数量,还会提高工资。
这些对于没有接触过这些想法的人来说是如此震撼,以至于您可能需要一些时间才能理解它们。但我保证我没有编造它们——实际上,您可以在标准经济学教科书中阅读有关它们的所有内容。
但是,使用我上面描述的原则,想象一下如果所有现有的人类劳动力都被机器替换会意味着什么?
假设 AI 再次取代了这些劳动力?循环会重复,推动消费者福利、经济增长以及就业和工资增长更高。这将是一个直线向上的螺旋,达到亚当·斯密或卡尔·马克思从未敢想象的物质乌托邦。
AI 风险#4: AI 会导致严重的不平等吗?
对 AI 夺走工作岗位的担忧直接过渡到下一个 AI 风险,假设 AI 确实夺走所有工作岗位。那么,难道这不会导致大规模和严重的财富不平等吗?AI 所有者将获得所有经济回报,而普通人一无所有。
一个经典的例子是马斯克在 2006 年公开发布的所谓“秘密计划”:
...当然,这正是他现在所做的,也因此成为了世界上最富有的人。
简而言之,每个人都可以获得此类产品——正如我们过去看到的不仅是汽车,还包括电力、收音机、计算机、互联网、手机和搜索引擎。这些技术制造商的动机非常强烈,他们将尽可能地推动价格下降,使全球所有人都能够负担得起。这正是目前在 AI 领域已经发生的事情——这就是为什么您现在可以使用最先进的生成式 AI,而且甚至可以免费使用 Microsoft Bing 和 Google Bard 的原因——这也是未来将继续发生的事情。不是因为这些供应商慷慨,而恰恰是因为他们贪心——他们想要扩大市场规模,从而最大化利润。
这并不意味着不平等在我们社会中不是一个问题。它确实存在,只是它不是由技术推动的,而是相反,它是由经济领域中最抵制新技术、政府干预最多以阻止采用新技术(特别是住房、教育和医疗保健)的部门所推动的。 AI 和不平等的实际风险不是 AI 将导致更多的不平等,而是我们不允许利用 AI 来减少不平等。
AI 风险#5: AI 会导致坏人做坏事吗?
到目前为止,我已经解释了四个最常被提出的 AI 风险,现在让我们来谈论第五个问题,也是我真正同意的问题: AI 将使坏人更容易做坏事。
这导致一些人提议,在这种情况下禁止使用 AI。不幸的是, AI 不是一种难以获得的某种神秘物质。相反,它是世界上最容易获得的材料——数学和代码。
因此,我们有两种非常简单的方法来应对坏人利用 AI 做坏事的风险,这正是我们应该关注的。
但是你会注意到我在那里漏掉了什么——我说我们应该首先关注在人工智能预防他们——这样的预防难道不意味着禁止人工智能吗?嗯,还有另一种方法可以预防这类行为,那就是将 AI 用作防御工具。使 AI 在好人手中变得强大,特别是那些防止坏事发生的好人。
因此,第二点,让我们采取重大措施将 AI 用于善良、合法、防御性的目的。让我们把 AI 应用于网络防御、生物防御、打击恐怖主义以及我们所做的所有其他事情,以保护我们自己、我们的社区和我们的国家安全。
应该采取什么行动?
这就是我们如何使用 AI 拯救世界。
AI 的发展始于 20 世纪 40 年代,同时也是计算机的发明。第一篇关于神经网络——我们今天所拥有的 AI 架构——的科学论文发表于 1943 年。在过去 80 年里,整整一代人的 AI 科学家出生、上学、工作,并在许多情况下离世,而没有看到我们现在正在收获的回报。他们每个人都是传奇。
今天,越来越多的工程师——其中许多人很年轻,可能有祖父母甚至曾祖父母参与了 AI 背后的思想创造——正在努力使 AI 成为现实。他们都是英雄,每一个人。我和我的公司很高兴能尽可能多地支持他们,我们将 100% 支持他们和他们的工作。
本文内容部分来自网络,仅供参考。如有侵权,请联系删除。