作者: Marc Andreessen,a16z创始人;翻译:金色财经cryptonaitive & ChatGPT
人工智能时代已经来临,人们对此感到恐慌不已。
幸运的是,我在这里带来好消息:人工智能不会摧毁世界,事实上可能会拯救世界。
首先,简要介绍一下人工智能的含义:将数学和软件代码应用于教会计算机如何理解、综合和生成知识的过程,像人类一样。人工智能是一种像其他计算机程序一样的程序——它运行、接收输入、进行处理并生成输出。人工智能的输出在各个领域都非常有用,从编程到医学、法律和创意艺术。它是由人拥有和控制的,就像其他任何技术一样。
对于人工智能的简短描述:它不是像电影中展示的那样,杀手软件和机器人会突然活跃并决定屠杀人类或以其他方式毁灭一切。
对于人工智能的更简短描述:它可能是使我们关心的一切变得更好的方法。
为什么人工智能可以使我们关心的一切变得更好呢?
社会科学多年来进行的众多研究的核心结论是,人类智能能够在生活的各个方面带来显著的改善。更聪明的人在几乎所有领域都能取得更好的成果:学业成就、工作表现、职业地位、收入、创造力、身体健康、寿命、学习新技能、处理复杂任务、领导力、创业成功、冲突解决、阅读理解、金融决策、理解他人的观点、创意艺术、育儿成果和生活满意度。
此外,人类智能是我们用了几千年来创造现在世界的杠杆:科学、技术、数学、物理学、化学、医学、能源、建筑、交通、通信、艺术、音乐、文化、哲学、伦理学和道德。如果没有在所有这些领域应用智能,我们现在可能还生活在泥屋中,艰难地过着务农的贫困生活。相反,我们利用智能使我们的生活水平在过去4000年里提高了大约10,000倍。
人工智能为我们提供了一个机会,通过深度增强人类智能,使智能的各种结果(从创造新药物到解决气候变化,再到实现星际旅行的技术)在未来变得更好得多。
人工智能增强人类智能的过程已经开始——人工智能已经以各种形式出现在我们周围,例如各种计算机控制系统,现在还有像ChatGPT这样的人工智能大型语言模型,而且从现在开始,它将迅速加速——如果我们允许的话。
在我们的人工智能新时代中:
• 每个孩子都将拥有一个无穷耐心、无穷同情、无穷知识、无穷帮助的人工智能导师。这个人工智能导师将在每个孩子的成长过程中一直陪伴在他们身边,帮助他们充分发挥自己的潜力,提供无尽的爱。
• 每个人都将拥有一个无穷耐心、无穷同情、无穷知识、无穷帮助的人工智能助手/教练/导师/训练师/顾问/治疗师。这个人工智能助手将在人生的各种机遇和挑战中一直存在,最大程度地提高每个人的成果。
• 每个科学家都将拥有一个能够大大扩展他们科学研究和成就范围的人工智能助手/合作者/伙伴。每个艺术家、工程师、商人、医生和护理人员的世界也将如此。
• 每个领导者——CEO、政府官员、非营利组织主席、运动教练、教师——也将如此。领导者的更好决策所产生的放大效应是巨大的,因此智能增强可能是最重要的。
• 整个经济的生产率增长将大大加速,推动经济增长、新产业的创造、新工作的创造和工资增长,从而实现地球上物质繁荣的新时代。
• 科学突破、新技术和新药物将大幅扩展,因为人工智能帮助我们进一步解码自然法则并将其用于我们的利益。
• 创意艺术将进入黄金时代,因为受到人工智能增强的艺术家、音乐家、作家和电影制作人能够以比以往更快、更大规模实现他们的愿景。
• 我甚至认为人工智能将改善战争,当它不得不发生时,通过大大降低战时死亡率。每场战争都以非常有限的人类领导者在极度压力和信息有限的情况下做出可怕的决策为特征。现在,军事指挥官和政治领导人将有人工智能顾问,帮助他们做出更好的战略和战术决策,最小化风险、错误和不必要的流血。
• 简而言之,人们今天用自己的自然智能做的任何事情,通过人工智能都能做得更好,我们将能够接手那些没有人工智能无法解决的新挑战,从治愈所有疾病到实现星际旅行。
• 而且这不仅仅涉及智能!人们最低估的人工智能质量也许是它的人性化。人工智能艺术给那些本来缺乏技术技能的人自由创作和分享他们的艺术思想。与富有同理心的人工智能朋友交谈确实能提高他们应对逆境的能力。而且,与人类对比,人工智能医疗聊天机器人已经更富同情心。无限耐心和同情心的人工智能将使世界变得更加温暖、更加友好。
这里的利害关系重大,机遇深远。人工智能很可能是我们文明有史以来最重要、最好的事物,至少与电力和微芯片不相上下,甚至可能更超越它们。
发展和普及人工智能——并远离我们应该害怕的风险——是我们对自己、对我们的孩子和对我们的未来的道义义务。
我们应该生活在一个有了人工智能的更好的世界,现在我们可以实现这个目标。
那么,为什么会引发恐慌?
与这种积极的观点相反,目前关于人工智能的公众对话充斥着恐慌和偏执。
我们听到各种声称人工智能将毁灭我们所有人、破坏我们的社会、夺走我们的工作、导致严重的不平等,并使坏人做出可怕的事情。
为什么在潜在的结果中存在着这种从接近乌托邦到可怕的反乌托邦的分歧呢?
从历史上看,每一项重要的新技术,从电灯到汽车、从收音机到互联网,都引发了道德恐慌——一种社会传染,让人们相信新技术将摧毁世界,或者社会,或者两者都会毁灭。 悲观主义档案馆的优秀人员已经记录了这些几十年来由技术驱动的道德恐慌事件;他们的历史清晰地显示出这种模式。事实证明,现在对于人工智能的恐慌甚至不是第一次出现。
现在,确实有许多新技术导致了不良后果——通常是那些对我们福利有巨大好处的技术。所以,并不是说道德恐慌的存在就意味着没有任何需要担心的事情。
但是, 道德恐慌本质上是非理性的——它将可能是合理关切的问题夸大成一种歇斯底里的程度,讽刺的是,这使得我们更难以面对真正严重的问题。
现在我们正处于对人工智能的一场全面的道德恐慌中。
这场道德恐慌已经被多种行为者利用为推动政策行动——推动制定新的人工智能限制、规定和法律。这些行为者正在公开发表关于人工智能危险的极端戏剧化的言论——它们以此滋养并进一步煽动道德恐慌——它们都自诩为无私的公益捍卫者。
但他们真的是这样吗?
他们是对还是错?
人工智能的浸礼会和私酒贩子
经济学家观察到,在这类改革运动中存在一种长期以来的模式。这些运动中的行动者可以分为两类——“浸礼会”和“私酒贩子”,这是基于20世纪20年代美国禁酒令的历史例子:
• “浸礼会”是真正的信徒社会改革者,他们深深而情感上(尽管不一定是理性上)相信,需要采取新的限制、规章和法律来防止社会灾难。对于禁酒令来说,这些行动者通常是真诚的基督徒,他们认为酒精正在破坏社会的道德结构。对于人工智能风险来说,这些行动者是真正相信人工智能会带来一种或另一种生存风险的人——如果将他们绑在测谎仪上,他们是真心相信的。
• “私酒贩子”是自利的机会主义者,他们在新的限制、规章和法律实施后可以从中获利,并使自己免受竞争对手的影响。对于禁酒令来说,这些人是指那些在合法酒类销售被禁止时,通过非法销售酒精赚取巨额财富的走私者。对于人工智能风险来说,这些人是指那些如果建立起一种由政府批准的人工智能供应商组成的垄断联盟,并受到新创企业和开源竞争的保护,那么他们可以赚更多钱的首席执行官们——这是“太大而不能失败”的银行的软件版本。
愤世嫉俗的人可能会认为,一些表面上的浸礼会也是私酒贩子——特别是那些受他们的大学、智库、活动组织和媒体机构支付薪水或获得拨款来攻击人工智能的人。如果你获得薪水或拨款来煽动人工智能恐慌,你很可能是个走私者。
私酒贩子的问题在于他们会取得胜利。浸礼会是天真的意识形态信奉者,私酒贩子是愤世嫉俗的运作者,因此,这类改革运动的结果通常是私酒贩子得到了他们想要的——获得监管控制、免受竞争的保护、形成垄断,而浸礼会则对社会改善的推动感到困惑。
我们刚刚经历了一个令人震惊的例子——2008年全球金融危机后的银行改革。浸礼会告诉我们,我们需要新的法律和规章来解散“太大而不能失败”的银行,以防止类似危机再次发生。因此,美国国会通过了2010年的多德-弗兰克法案,这被宣传为满足洗礼者目标的法案,但实际上被走私者——大银行——利用了。结果是,2008年那些“太大而不能失败”的银行现在变得更加庞大。
因此,在实践中,即使浸礼会是真诚的,即使浸礼会是正确的,他们也会被狡猾和贪婪的走私者利用,以使自己受益。
这正是当前推动人工智能监管的情况。
然而,仅仅识别行动者并对其动机进行指责是不够的。我们应该根据浸礼会和私酒贩子的论点进行评估。
AI风险 1:人工智能会杀死我们吗?
第一个和最早的人工智能末日风险是人工智能将决定杀死人类的担忧。
我们对技术自身将会崛起并摧毁我们的恐惧在我们的文化中根深蒂固。希腊人通过普罗米修斯神话表达了这种恐惧——普罗米修斯给人类带来了破坏性的火焰力量,更一般地说是技术("techne"),因此普罗米修斯被神永远地折磨。后来,玛丽·雪莱在她的小说《弗兰肯斯坦》中为现代人创造了我们自己的这个神话版本,其中我们开发了永生的技术,然后这个技术崛起并试图摧毁我们。当然,关于人工智能的恐慌报纸报道中必不可少的是詹姆斯·卡梅隆的《终结者》电影中一个闪闪发光的红眼杀人机器人的静止图像。
这个神话的假设进化目的是激励我们认真考虑新技术的潜在风险——毕竟,火确实可以用来烧毁整个城市。但是,就像火同时也是现代文明的基础一样,用来保暖和保护我们在寒冷和充满敌意的世界中,这个神话忽视了大多数甚至可能所有新技术的更大优势,并实际上引起了破坏性情绪而不是理性分析。只因为古人像这样恐慌不安,并不意味着我们也要恐慌;我们可以运用理性。
我认为人工智能会决定杀死人类的想法是一个深刻的范畴错误。 人工智能不是经历了数十亿年演化来参与适者生存之争的活生生的存在,如同动物和我们自己。它是数学——代码——计算机,由人类构建、拥有、使用和控制。认为它会在某个时刻发展出自己的思想,并决定它有导致它试图杀死我们的动机是一种迷信的挥手。
简而言之, 人工智能没有意愿、没有目标,它不想杀死你,因为它不是活的。人工智能是一台机器——不会比你的烤面包机更有生命。
现在,显然,有些人对人工智能杀手深信不疑——浸入它们的可怕警告的媒体报道突然疯狂增加,其中一些人声称他们研究这个主题已经几十年了,现在对他们所了解的内容感到恐惧不安。其中一些真正相信者甚至是技术的实际创新者。这些人主张对人工智能实施各种离奇而极端的限制,从禁止人工智能的发展一直到对数据中心进行军事空袭和核战争。他们主张,因为像我这样的人无法排除人工智能未来可能造成的灾难性后果,我们必须采取一种预防性的立场,可能需要大量的实体暴力和死亡,以防止潜在的存在风险。
我的回应是,他们的立场是非科学的——有什么可测试的假设?什么样的事实可以证明这个假设是错误的?我们如何知道我们何时进入了危险区域?这些问题基本上得不到回答,除了"你无法证明它不会发生!"实际上,这些浸礼会的立场是如此非科学和极端——一个关于数学和代码的阴谋论——他们已经呼吁实施物理暴力,所以我将做一件我通常不会做的事情,质疑他们的动机。
具体而言,我认为有三件事情正在发生:
首先,回想一下约翰·冯·诺伊曼对罗伯特·奥本海默关于他在创造核武器方面的担忧的回应——这有助于结束了第二次世界大战并阻止了第三次世界大战。他说:"有些人为了声称他们的罪行而承认罪行。"什么是以夸张的方式声称自己工作的重要性而不显得过于自夸的最好方式呢?这解释了那些实际上正在建造和资助人工智能的浸礼会的言行不一致——观察他们的行动,而不是他们的言辞。(杜鲁门在与奥本海默会面后更加严厉地说:"别让那个爱哭鬼再进来。")
其次,一些浸礼会实际上是私酒贩子。有一个完整的职业称为"人工智能安全专家"、"人工智能伦理学家"、"人工智能风险研究员"。他们的工作是成为末日预言者,并且应该适当地对待他们的陈述。
第三,加利福尼亚州以众多的邪教而闻名,从EST到人民寺庙,从天堂之门到曼森家族。其中许多,尽管不是所有,邪教是无害的,甚至为在其中找到归宿的疏离感的人提供了帮助。但有些非常危险,邪教往往很难在导致暴力和死亡的那条线上徘徊。
而现实情况是,显然对湾区的每个人都很明显,"人工智能风险"已经演变成一个邪教,突然出现在全球媒体的关注和公众讨论中。这个邪教不仅吸引了一些边缘人物,还吸引了一些真正的行业专家和不少富裕的捐助者——包括直到最近的Sam Bankman-Fried。它发展出了一套完整的邪教行为和信仰。
这个邪教不是什么新鲜事——有一个长期存在的西方传统称为千禧年主义,它产生了启示录邪教。"人工智能风险"邪教具有千年主义启示录邪教的所有特征。从维基百科来看,我做了一些补充:
"千禧年主义是一种由一组或运动[人工智能风险预言者]相信社会即将发生根本性转变[人工智能的到来]的信仰,在此之后,一切都将改变[人工智能的乌托邦、反乌托邦或世界末日]。只有戏剧性的事件[对人工智能的禁令、对数据中心的空袭、对非受控人工智能的核打击]被认为能够改变世界[阻止人工智能],而这种变革被认为将由一群虔诚和忠诚的人带来或幸存下来。在大多数千禧年主义情节中,即将到来的灾难或战斗[人工智能的启示或预防]将在之后紧随着一个新的、洁净的世界[人工智能的乌托邦]。”
这种世界末日教派的模式是如此明显,以至于我很惊讶为什么更多的人没有看到。
不要误会,教派是有趣的,他们的书面材料通常很有创意和吸引力,他们的成员在晚宴和电视上也很有魅力。但是他们的极端信仰不应决定法律和社会的未来-显然不应如此。
AI风险2:AI会摧毁我们的社会吗?
广为流传的第二个AI风险观点是, AI将通过产生“有害”的结果(以此类末日论者的说法)来毁灭我们的社会,即使我们并非真正被杀害。
简而言之: 如果机器杀手没有伤害我们,仇恨言论和错误信息也会伤害我们。
这是一个相对较新的末日论关注点,它从上面我描述的“AI风险”运动中分支出来,并在一定程度上占据主导地位。实际上,AI风险的术语最近从“AI安全”(由那些担心AI会真正杀死我们的人使用的术语)变为“AI对齐”(由那些担心社会“危害”的人使用的术语)。原始的AI安全人士对这种转变感到沮丧,尽管他们不知道如何将其收回,但他们现在主张将实际的AI风险主题更名为“AI不杀伤所有人主义”(AI notkilleveryoneism),尽管这个术语尚未被广泛采用,但至少很明确。
AI社会风险主张的提示是其自己的术语“AI对齐”。与什么对齐?人类价值观。哪些人类价值观?哦,这就是事情变得棘手的地方。
恰好,我亲眼目睹了类似情况——社交媒体“信任和安全”战争。显而易见的是,多年来,社交媒体服务一直受到政府和活动家的巨大压力,要求他们禁止、限制、审查和压制各种内容。而且“仇恨言论”(及其数学对应物“算法偏见”)和“错误信息”的担忧直接从社交媒体背景转移到了“AI对齐”的新领域。
我从社交媒体战争中学到的重要经验是:
一方面,不存在绝对的言论自由立场。首先,包括美国在内的每个国家都将至少某些内容视为非法。其次,有某些类型的内容,比如儿童色情和煽动现实世界暴力,几乎被几乎所有社会普遍认为是禁区的内容——无论其是否合法。因此,任何促进或生成内容-言论-的技术平台都将有一些限制。
另一方面,滑坡效应不是谬见,而是必然。一旦建立了对甚至极为糟糕的内容进行限制的框架——例如对仇恨言论,对某些有伤害性的词汇,或对错误信息,显然虚假的主张(比如“教皇去世了”)——各种政府机构、活动家压力团体和非政府实体将迅速行动起来,要求越来越大的审查和压制对他们认为对社会和/或他们个人偏好构成威胁的言论。他们会以包括公然犯罪在内的方式这样做。这种循环在实践中似乎可以永远进行下去,得到我们精英权力结构中充满热情的官方监控员的支持。社交媒体领域的这种情况已经持续了十年,并且除了某些例外情况外,这种情况也在不断加剧。
因此,现在“AI对齐”周围形成了这种动态。其拥护者声称拥抱对社会有益的工程化AI生成的言论和思想的智慧,并禁止对社会有害的AI生成的言论和思想。其反对者声称,思想警察极度傲慢和专横,并且通常是公然犯罪,至少在美国是如此,并且实际上试图成为一种新的由政府-企业-学术融合的权威言论独裁,直接来到乔治·奥威尔的《1984》。
由于“信任和安全”以及“AI对齐”的支持者都集中在以美国沿海精英为特征的全球人口非常狭窄的一部分中,其中包括许多在科技行业工作和撰写文章的人。因此,我的很多读者会发现自己有条件争辩,认为需要对AI输出进行大规模限制以避免破坏社会。我现在不会试图说服你们,我只会简单地说这就是需求的本质,世界上大多数人既不同意你的意识形态,也不希望看到你们胜利。
如果你不同意当前通过不断加剧的言论规范对社交媒体和AI施加的狭窄道德观念,你还应该意识到,AI被允许说什么/生成什么的斗争将比对社交媒体审查的斗争更重要,远远更重要。AI极有可能成为世界上一切的控制层。它被允许如何运作将可能比任何其他事情都更重要。你应该意识到,一小撮孤立的党派社会工程师正在试图在追求保护你的旧说辞的掩护下决定现在的AI应该如何操作。
简而言之,不要让思想警察压制AI。
AI风险3:AI会抢走我们所有的工作吗?
由于机械化、自动化、电脑化或人工智能等各种形式的机器取代人力劳动,人们一直担心失去工作的问题。 这种担忧已经持续了数百年,自从出现了机械织布机等机械装置以来。尽管每一项新的重大技术在历史上都会带来更多的高薪工作,但每一波恐慌的出现都伴随着“这一次与以往不同”的说法——这一次会发生,这一次是技术终将给人类劳动以致命打击的时候。然而,这种情况从未发生过。
在最近的过去,我们经历了两次技术驱动的失业恐慌周期——2000年代的外包恐慌和2010年代的自动化恐慌。尽管在这两个十年中,许多传媒人士、专家和甚至技术行业高管都不断敲打桌子,声称大规模失业即将来临,但在2019年年底——也就是COVID爆发之前——世界上的工作机会比历史上任何时候都要多,而且工资也更高。
然而,这个错误的想法却不会消失。
果不其然,它又回来了。
这一次,我们终于拥有了能夺走所有工作并使人类劳动变得无关紧要的技术——真正的人工智能。当然,这一次历史不会简单重复,这一次是:人工智能将导致大规模失业,而不是经济迅速增长、就业机会增多和工资水平上升。对不对?
不是这样,这种情况肯定不会发生,如果允许人工智能在整个经济中得以发展和推广,它可能会导致有史以来最激动人心和持续时间最长的经济繁荣,相应地带来创纪录的就业机会和工资增长——恰恰与人们的担忧相反。原因如下。
自动化杀死就业论者一直在犯的核心错误被称为“劳动总量谬误”。 这种谬误是指在任何特定时间内经济中需要完成的劳动量是固定的,要么由机器完成,要么由人类完成,如果由机器完成,那么人们就没有工作可做。
劳动总量谬误是自然而然地从直觉产生的,但这种直觉是错误的。 当技术应用于生产时,我们获得了生产力增长——通过减少输入产生的产出增加。 结果是商品和服务的价格下降。随着商品和服务价格的下降,我们支付的费用也减少了,这意味着我们现在有额外的消费能力来购买其他东西。这增加了经济中的需求,推动了新的生产——包括新产品和新产业——从而为被机器替代的人们创造了新的工作机会。 结果是经济规模扩大,物质繁荣增加,产业增加,产品增加,就业机会增多。
但好消息不仅如此。我们还获得了更高的工资。这是因为在个体工人的层面上,市场根据工人的边际生产力确定报酬。在技术融入的行业中,一名工人的生产力比传统行业的工人更高。雇主要么会根据工人的提高生产力而支付更多的钱,要么另一家雇主会出于纯粹的自利而这样做。结果是,引入技术的行业不仅会增加就业机会,而且会提高工资。
总之, 技术使人们能够更加高效地工作。这导致现有商品和服务的价格下降,工资上涨。这反过来又促进了经济增长和就业增长,并激励了新的工作和新产业的创造。 如果市场经济能够正常运行,技术能够自由引进,这将是一个永无止境的向上循环。正如弗里德曼所观察到的那样,“人类的欲望和需求是无穷无尽的”——我们总是想要比我们拥有的更多。拥抱技术的市场经济是我们更接近实现每个人都可以想象到的一切,但永远无法完全实现的方式。这就是为什么技术不会摧毁就业岗位,永远不会。
对于那些尚未接触过这些想法的人来说,这些都是令人震惊的思想,可能需要一些时间来理解。但我发誓我并没有编造它们——实际上,你可以在标准经济学教科书中阅读到所有这些观点。我推荐亨利·哈兹利特《一课经济学》中的《机械的诅咒》一章,以及弗雷德里克·巴斯夏的讽刺性作品《蜡烛制造商的请愿书》,这些蜡烛制造商因太阳对照明产业进行了不公平竞争而抗议太阳。我们也有我们这个时代的现代版本。
但你可能会认为这一次与以往不同。这一次,随着人工智能的出现,我们拥有了可以替代所有人类劳动的技术。
但是,按照我上面描述的原则,想象一下如果所有现有的人类劳动都被机器取代会意味着什么。
这将意味着经济生产力增长的起飞速度将是绝对天文数字,远远超过任何历史先例。现有商品和服务的价格将全面下降到几乎为零。消费者福利将飙升。消费者的消费能力将飙升。经济中的新需求将激增。企业家将创建令人眼花缭乱的新产业、新产品和新服务,并尽可能快地雇佣尽可能多的人工智能和工人来满足所有新的需求。
假设人工智能再次取代了这些工人呢?这个循环将重复,推动消费者福利、经济增长和就业与工资增长更高。这将是一种直线式的向上螺旋,将人们带向亚当·斯密和卡尔·马克思从未敢于梦想的物质乌托邦。
我们应该如此幸运。
AI风险4:人工智能是否会导致严重的不平等?
谈到卡尔·马克思,对于人工智能夺走工作岗位的担忧直接引出了下一个声称的人工智能风险,那就是,好吧,Marc,假设人工智能确实夺走了所有的工作,无论是出于好还是出于坏。那么,作为人工智能的所有者获得了所有的经济回报,普通人一无所获,这难道不会导致巨大而且严重的财富不平等吗?
恰好,这是马克思主义的一个核心论点,即生产资料的所有者——资产阶级——不可避免地会从实际劳动的人们——无产阶级——那里窃取所有的社会财富。无论现实如何一再证明这是一个错误,这个谬论似乎永远无法消亡。但让我们无论如何驳斥它。
这个理论的缺陷在于,作为一件技术的所有者,保留不分享它并不符合你自身的利益——事实上恰恰相反,你的利益是将它销售给尽可能多的客户。世界上最大的市场是全世界的市场,包括80亿人口。因此,在现实中,每一项新技术——即使开始时是向高薪大公司或富裕消费者销售——都会迅速普及,直到它落入尽可能大的大众市场的手中,最终覆盖整个地球上的人。
这个经典的例子是埃隆·马斯克在2006年发布的所谓“秘密计划”——他当然公开发布的——关于特斯拉的计划:
第一步,制造[昂贵的]跑车;
第二步,用第一步挣的钱造一辆价格实惠的车;
第三步,用第二步挣的钱造一辆更实惠的车。
这当然是他所做的事情,结果成为世界首富。
最后一点是关键的。如果今天他只卖车给有钱人,马斯克会更富有吗?不会。如果他只为自己造车,他会比现在更富有吗?当然不会。不,他通过销售给尽可能大的市场全世界,来最大化自己的利润。
简而言之,每个人都能够拥有这个东西,正如我们过去在汽车、电力、无线电、计算机、互联网、移动电话和搜索引擎等领域所看到的。制造这些技术的公司高度积极地降低价格,直到地球上的每个人都能够负担得起。这正是人工智能领域已经发生的事情——这就是为什么你今天可以在微软Bing和谷歌Bard等形式的免费或低成本的最先进的生成式人工智能上使用它——而且这将继续发生。不是因为这些供应商愚蠢或慷慨,而恰恰是因为他们贪婪——他们希望最大化市场规模,从而最大化利润。
因此,发生的情况与技术推动财富集中的理论相反——技术的个体用户,最终包括地球上的每个人,反而被赋予权力,并获得了大部分产生的价值。与之前的技术一样,构建人工智能的公司——假设它们必须在自由市场中运作——将竞相努力使这一点成为现实。
马克思当时错了,现在也错了。
这并不是说不平等在我们社会中不是一个问题。它是一个问题,只是它不是由技术驱动的,而是相反,是由那些对新技术最抵制、政府干预最多以阻止采用人工智能等新技术的经济部门驱动的,具体来说是住房、教育和医疗保健。 人工智能和不平等的实际风险不在于人工智能会导致更多的不平等,而在于我们不允许使用人工智能来减少不平等。
AI风险5:人工智能是否会导致坏人做坏事?
到目前为止,我已经解释了五个最常提出的人工智能风险中有四个实际上并不真实的问题——人工智能不会活过来杀死我们,人工智能不会摧毁我们的社会,人工智能不会导致大规模失业,人工智能不会导致破坏性的不平等增加。但是现在让我们来讨论第五个,这也是 我实际上同意的一个:人工智能会让坏人更容易做坏事。
从某种意义上说,这是一个循环论证。技术是一种工具。从火和石头开始,工具可以用来做好事——烹饪食物和建造房屋——也可以用来做坏事——烧伤人和殴打人。任何技术都可以被用于好的或坏的目的。可以理解。而人工智能会让罪犯、恐怖分子和敌对政府更容易做坏事,毫无疑问。
这让一些人提出,好吧,既然这样,那么在这种情况下,让我们在坏事发生之前禁止人工智能。不幸的是,人工智能不是一种难以获得的玄妙物质,比如钚。恰恰相反,它是世界上最容易获得的材料——数学和代码。
显然,AI猫已经出了包。你可以通过数千个免费在线课程、书籍、论文和视频学习如何构建人工智能,而且每天都有杰出的开源实现在不断增加。人工智能就像空气一样——它将无处不在。为了抓捕它,所需要的极权压迫程度将是如此严厉——一个监视和控制所有计算机的世界政府?戴着黑色直升机的武装警察突袭流氓GPU?——我们将没有一个社会来保护。
因此,我们有两种非常直接的方式来应对坏人利用人工智能做坏事的风险,而这正是我们应该关注的。
首先,我们已经制定了法律来让使用人工智能干坏事的大多数行为犯罪化。 黑入五角大楼?那是犯罪。从银行偷钱?那是犯罪。制造生物武器?那是犯罪。实施恐怖袭击?那是犯罪。我们只需专注于在可能时预防这些犯罪,并在不能时予以起诉。我们甚至不需要新的法律——我不知道是否有一个已经被提出的恶意利用人工智能的实际案例不是已经是非法的。如果发现了新的坏用途,我们禁止那些用途。证毕。
但是你会注意到我刚才提到的——我说我们应该首先专注于在坏事发生之前防止人工智能辅助犯罪——这难道不意味着要禁止人工智能吗?好吧,还有另一种方法可以防止这样的行为,那就是将人工智能作为一种防御性工具。让拥有坏目标的坏人具备能力的人工智能,同样也在好人手中具有强大的力量——特别是那些负责防止坏事发生的好人。
例如,如果你担心人工智能生成虚假人物和虚假视频,答案是构建新的系统,使人们可以通过加密签名验证自己和真实内容。在人工智能之前,数字化创造和修改真实和虚假内容已经存在;答案不是禁止文字处理器和Photoshop——或者人工智能——而是利用技术构建一个真正解决问题的系统。
因此, 第二个方法是,让我们大力利用人工智能进行善意、合法和防御性的目的。让我们在网络防御、生物防御、追踪恐怖分子以及我们为保护自己、社区和国家所做的一切其他方面利用人工智能。
当然,政府内外已经有许多聪明人正在做这样的工作——但是如果我们将目前那些专注于无效的禁止人工智能的努力和智力用于使用人工智能来防止坏人做坏事,我相信一个充斥着人工智能的世界将比我们今天生活的世界更加安全。
不以最大力量和速度开展人工智能的真实风险
还有一个最终而真实的人工智能风险可能是最令人恐惧的:
人工智能不仅在相对自由的西方社会中得到开发,也在中国得到开发。
中国对人工智能有着与我们截然不同的愿景。他们对此甚至并不保密,他们非常明确地表示,他们已经在追求他们的目标。而且,他们不打算将人工智能战略限制在中国境内——他们打算在他们提供5G网络、提供“一带一路”贷款、提供像TikTok这样的友好消费应用作为他们集中控制和指挥的人工智能前端的地方,将其传播到全世界的每一个角落。
人工智能的最大风险就是中国在全球人工智能主导地位上取得胜利,而我们——美国和西方——却没有取得胜利。
我提出了一个简单的策略来应对这个问题——事实上,这也是罗纳德·里根总统在与苏联赢得第一次冷战时采取的策略。
“我们赢,他们输。”
与其被围绕着关于人工智能杀手、有害人工智能、破坏就业岗位的人工智能和产生不平等的人工智能等毫无根据的恐慌放在被动位置,我们美国和西方应该尽可能全力投入人工智能。
我们应该争取全球人工智能技术优势的竞赛,并确保中国不会取得胜利。
在这个过程中,我们应该尽可能快速、尽可能大力地将人工智能引入我们的经济和社会,以最大化其对经济生产力和人类潜能的利益。
这是抵消真正人工智能风险和确保我们的生活方式不被中国愿景所取代的最佳方式。
我们该怎么办?
我提出了一个简单的计划:
• 大型人工智能公司应该被允许尽快、尽可能激进地构建人工智能 ——但不能实现监管垄断,不能建立一个由政府保护的卡特尔,由于对人工智能风险的不正确宣称而免于市场竞争。这将最大限度地发挥这些公司惊人能力的技术和社会回报,它们是现代资本主义的宝石。
• 初创人工智能公司应该被允许尽快、尽可能激进地构建人工智能。 它们既不应该面对大公司获得政府授予的保护,也不应该获得政府援助。它们应该只被允许竞争。如果初创公司不成功,它们在市场上的存在也将不断激励大公司发挥出色——我们的经济和社会无论如何都是赢家。
• 开源人工智能应该被允许自由传播和与大型人工智能公司和初创公司竞争。 开源应该没有任何监管壁垒。即使开源没有战胜公司,其广泛可用性也对世界各地想要学习如何构建和使用人工智能以成为技术未来一部分的学生们是一个福音,并确保无论他们是谁、有多少钱,人工智能都对他们可用。
• 为了抵消坏人利用人工智能做坏事的风险,政府与私营部门合作应该积极参与潜在风险领域的每一个方面,利用人工智能最大化社会的防御能力。 这不应仅限于人工智能风险,而是包括更一般的问题,如营养不良、疾病和气候问题。人工智能可以是解决问题的极其强大的工具,我们应该将其视为这样的工具。
• 为了防止中国取得全球人工智能主导地位的风险,我们应该充分利用我们的私营部门、科研机构和政府的力量,共同推动美国和西方人工智能在全球范围内的绝对主导地位,最终甚至在中国境内也如此。我们赢,他们输。
这就是我们如何利用人工智能拯救世界。
是时候行动了。
传奇与英雄
我以两个简单的陈述来结束。
人工智能的发展始于上世纪40年代,与计算机的发明同时开始。第一篇关于神经网络的科学论文——即我们今天拥有的人工智能的架构——发表于1943年。在过去的80年中,整个一代人的人工智能科学家出生、上学、工作,很多情况下去世,他们没有看到我们现在所获得的回报。他们是传奇,每一个人。
如今,越来越多的工程师——其中许多人年轻,可能有祖父母甚至曾祖父母参与了人工智能背后思想的创造——正努力将人工智能变为现实,尽管有一堵试图将他们描绘成鲁莽的恶棍的恐慌和悲观主义的墙。我不认为他们鲁莽或者是恶棍。他们是英雄,每一个人。我和我的公司非常高兴支持尽可能多的他们,我们将100%地支持他们和他们的工作。
"多年来,千年主义者经常[人工智能风险预言者不断地]试图预测这种未来事件的确切时间,通常是通过各种标志和先兆的解释。然而,历史上的预测几乎都以失败告终[目前没有可靠的证据表明人工智能会杀死人类]。 然而,他们的[人工智能风险预言者的]粉丝通常会试图修正解释,以便与事件发生时[人工智能未来的潜在风险]相对应。"
那些热衷于"人工智能风险"邪教的人可能会不同意我的观点,他们可能会坚称他们是理性的、基于科学的,并且我是一个被洗脑的追随者。但请注意,我并没有声称"人工智能绝对不会成为人类的威胁"。我只是指出,迄今为止没有证据支持"人工智能将杀死我们"这一论点。我们应该根据现有的证据进行理性的评估,而不是沉溺于邪教般的恐慌和反应。