基辛格谈人工智能:如何看待人工智能时代的国际秩序?_大只500平台靠谱吗?

从谷歌AlphaGo击败人类棋手,到ChatGpt引发科技界热议,人工智能科技的每一次进展都牵动着人们的神经。毋庸置疑的是,人工智能正深刻改变着我们的社会、经济、政治甚至是外交政策,而对于解释这一切的影响来说,过往传统的理论往往失灵。在《人工智能时代与人类未来》一书中,著名外交家基辛格、谷歌前CEO施密特和麻省理工学院苏世民计算机学院院长胡滕洛赫尔从不同角度梳理了人工智能的前世今生,并全面探讨了其发展可能给个人、企业、政府、社会、国家带来的种种冲击。几位顶尖的思想者认为,随着人工智能的能力越来越强,如何定位人类的角色,将是我们在未来的时间中必须长期思考的命题。以下内容经过出版社授权摘编自《人工智能时代与人类未来》,有删改,小标题为摘编者所加。

《人工智能时代与人类未来》,作者: [美] 亨利·基辛格 / [美] 埃里克·施密特 / [美] 丹尼尔·胡滕洛赫尔,版本: 中信出版社,2023年5月。

原作者 |  [美]亨利·基辛格 / [美]埃里克·施密特 / [美]丹尼尔·胡滕洛赫尔

通用人工智能会带来什么?

人类和人工智能是否从不同的角度接近同一个现实,并且可以优势互补、相辅相成呢?还是说,我们会感知到两种不同但部分重叠的现实:一种是人类可以通过理性阐述的,另一种则是人工智能可以通过算法说明的?如果答案是后一种,那么人工智能就能感知我们尚未感知也无法感知的事物——不仅因为我们没有足够的时间以我们的方式去推理它们,还因为它们存在于一个我们的心智无法概念化的领域之中。人类对“完全了解世界”的追求将会发生改变,人们会意识到,为了获得某些知识,我们可能需要委托人工智能为我们获取知识,并向我们回禀消息。无论答案是哪一个,随着人工智能追求的目标愈加全面和广泛,它在人类看来都将越来越像一个体验和了解世界的“生灵”—— 一种结合了工具、宠物和心智的存在。

当研究人员接近或已然实现通用人工智能时,这个谜题只会显得越发深邃。正如我们在第三章所述,通用人工智能将不会局限于学习和执行特定的任务;相反,根据其定义,通用人工智能将能够学习并执行范围极广的任务,一如人类所为。开发通用人工智能将需要巨大的算力,这可能导致只有少数资金充足的组织有能力创建此类人工智能。与目前的人工智能一样,尽管通用人工智能可能随时被分散部署,但鉴于其能力,其应用有必要受到限制。可以通过只允许经批准的组织运营通用人工智能来对其施加限制。那么问题将变成:谁来控制通用人工智能?谁来授权对其的使用?在一个少数“天才”机器由少数组织操纵的世界里,民主还是可能的吗?在这种情况下,人类与人工智能的合作会是何种模样?

如果通用人工智能真的出现在世上,这将是智力、科学和战略上的重大成就。但即便未能如此,人工智能也同样能为人类事务带来一场革命。人工智能在应对突发事件(或者说意外事件)及提供解决方案方面展现出的动力和能力使其有别于以往的技术。如果不受监管,人工智能可能会偏离我们的预期,进而偏离我们的意图。到底是限制它、与它合作还是顺从它的决定,将不仅仅由人类做出。在某些情况下,这将由人工智能本身决定;在其他情况下,则取决于各种助力因素。人类可能参与一场“逐底竞争”。

随着人工智能实现流程自动化、允许人类探索大量数据,并组织和重构物质和社会领域,那些先行者可能获得先发优势。竞争压力可能会迫使各方在没有足够时间评估风险或干脆无视风险的情况下竞相部署通用人工智能。关于人工智能的伦理道德是必不可少的。每个个体的决定—— 限制、合作或顺从——也许会产生戏剧性的后果,也许不会,但当它们汇合起来,影响就会倍增。

这些决定不可能是孤立的。如果人类想要塑造未来,需要就指导每一个选择的共同原则达成一致。确实,集体行动很难实现,有时甚至不可能,但缺乏共同道德规范指导的个人行动只会让人类整体陷入更大的动荡与变乱。那些设计、训练人工智能并与人工智能合作的人所能够实现的目标,将达到迄今人类无法企及的规模和复杂程度,比如新的科学突破、新的经济效率、新的安全形式,以及社会监控的新维度。而在扩展人工智能及其用途的过程中,那些未能获得主导权的人却可能会感到,他们正在被自己不了解, 而且并非由自身设计或选择的力量所监视、研究和采取行动。这种力量的运作是不透明的,在许多社会中,这是传统的人类行为者或机构不能容忍的。人工智能的设计者和部署者应该准备好解决这些问题,首先要做的是向非技术人员解释人工智能在做什么、它“知道”什么,又会如何去做。人工智能的动态性和新兴性至少令其在两个方面产生了模糊性。首先,人工智能可能按照我们的预期运行,但会产生我们无法预见的结果。这些结果可能会把人类引入其创造者也始料未及的境地,就像 1914 年的政治家没有认识到军事动员的旧逻辑加上新技术会把欧洲拖入战争一样。如果不加审慎的考虑就部署和运用人工智能,也可能会造成严重后果。

电影《阿丽塔:战斗天使》剧照。

这些后果可能是小范围的,比如自动驾驶汽车做出的决定危及生命;也可能是极其重大的,比如严重军事冲突。其次,在某些应用领域中,人工智能可能是不可预测的,它的行动完全出人意料。以 AlphaZero 为例,它只是根据“赢棋”的指示,就发展出一种人类在几千年的国际象棋历史中从未设想过的棋风。虽然人类可能会小心规定人工智能的目标,但随着我们赋予其更大的自由度,其实现目标的路径可能会让我们感到惊讶,甚至感到恐慌。因此,对人工智能的目标和授权都需要谨慎地设计,尤其是在其决策可能致命的领域。我们既不应将人工智能视为自动运作、无须照管的存在,也不应允许其在无人监督、监视或直接控制的情况下采取不可撤销的行动。人工智能由人类创造,故也应由人类来监管。但在我们这个时代,人工智能面临的挑战之一是,具备了创造人工智能所需的技能和资源的人并非必然具有理解其更广泛内涵的哲学视角。许多人工智能的创造者主要关注的是他们试图实现的应用和他们想要解决的问题:他们可能不会停下来考虑这个解决方案是否会产生一场历史性的革命,或者他们的技术将如何影响不同的人群。人工智能时代需要它自己的笛卡儿和康德,来解释我们创造了什么及其对人类有何意义。

我们有必要组织政府、大学和私营行业创新者均参与其中的理性讨论和协商,其目标应该是对实际行动建立限制就像今天管理个人和组织行动的那些限制一样。人工 智 能 具 有 的 属性,部分与目前受监管的产品、服务、技术和实体相同,但在一些重要方面又与它们不同, 其缺乏自身完全界定的概念和法律框架。例如,人工智能不断演变、推陈出新的特性给监管带来了挑战:它在世界上的运作对象和方式可能因不同领域而异,并随着时间的推移而演变,而且并不总是以可预测的方式呈现。对人的治理是以道德准则为指导的。人工智能需要一种自己的道德准则,这种准则不仅反映了技术的本质,也反映了它所带来的挑战。

通常,既有原则并不适用于此处。在信仰时代,当神明裁判中的被告面临战斗裁决时,法院可以判定罪行,但上帝决定谁获得胜利。在理性时代,人类根据理性的戒律来确定罪责,并根据因果关系和犯罪意图等概念来判罪和施以惩罚。但是人工智能并不依靠人类的理性运作,也没有人类的动机、意图或自我反省。因此,人工智能的引入将使适用于人类的现有正义原则更为复杂化。

当一个自主系统基于自己的感知和决策行动时,其创造者承担责任吗?还是说,人工智能的行为不可与其创造者相混同,至少在罪责方面不应连坐?如果人工智能被用来监测犯罪行为的迹象,或者帮助判断某人是否有罪,那么人工智能必须能够“解释”它是如何得出结论的,以便人类官员对此加以采信吗?此外,在技术发展的哪个时点、何种背景之下,人工智能应该受到国际协商的限制?这是另一个重要的辩论主题。如果试探过早,这项技术的发展可能会受到阻碍,或者可能诱使其隐藏自身能力;而如果拖延太久,则可能会造成破坏性后果,尤其是在军事方面。对于一种虚无缥缈、晦涩难懂且易于传播的技术,难以对其设计有效的核查机制使得这一挑战更加复杂。官方的协商者必然是政府,但也需要为技术专家、伦理学家、创造和运营人工智能的公司以及其他领域外人士搭建发声平台。

美剧《西部世界》剧照。

对不同社会来说,人工智能带来的两难困境均具有深远意义。如今,我们的社会和政治生活很大程度上是在人工智能赋能的网络平台上发生的,民主国家尤其如此,它们依靠这些信息空间进行辩论和交流,形成公众舆论并赋予其合法性。谁,或者什么机构,应该界定技术的角色?谁又应该监管它?使用人工智能的个人应该扮演什么样的角色?生产人工智能的公司呢?部署使用它的社会政府呢?作为这些问题解决方案的一部分,我们应该设法使其可审核,即使其过程和结论既是可检查的又是可纠正的。反过来,纠正能否实施,将取决于能否将针对人工智能感知和决策形式的原则加以细化。道德、意志甚至因果关系都不能很好地契合自主人工智能的世界。从交通运输到金融再到医药,社会的大多数层面都会出现类似的问题。

想想人工智能对社交媒体的影响吧。借助最近的创新,这些平台已迅速成为我们公共生活的重要方面。正如我们在第四章中所讨论的,推特和脸书用以突显、限制或完全禁止内容或个人的功能全都仰仗人工智能,这便是其力量的证明。使用人工智能进行单边的、通常不透明的内容和概念推广或删除,这对各国尤其是民主国家来说都是一个挑战。随着我们的社会和政治生活越来越多地转向由人工智能管理的领域,并且我们只能依靠这种管理来驾驭这些领域,我们是否有可能保留主导权? 使用人工智能处理大量信息的做法也带来了另一挑战:人工智能加大了对世界的扭曲,以迎合人类的本能偏好。在这一领域,人工智能可以轻易地放大我们的认知偏差,而我们却还与之共鸣。伴随着这些声音,面对选择的多样性,又被赋予了选择和筛选的权力,人们接受的错误信息将会泛滥。社交媒体公司不会通过新闻推送来推动极端和暴力的政治极化,但显而易见的是,这些服务也没有导致开明话语的最大化。


人工智能、自由信息和独立思考

那么,我们与人工智能的关系应该是怎样的呢?在管理这些领域时,它应该被约束、被授权,还是被当作伙伴?某些信息的传播,尤其是故意制造的虚假信息,会造成损害、分裂和煽动,这是毋庸置疑的。因此一些限制是需要的。然而,现在对“有害信息”的谴责、打击和压制显得过于宽松,这也应该引起反思。

在一个自由社会里,有害信息和虚假信息的界定不应该被囿于公司的职权范围。但是,如果将此类职责委托给一个政府小组或机构,该小组或机构应该根据确定的公共标准并通过可核查的程序来运作,以避免被当权者利用。如果将其委托给人工智能算法,则该算法的目标函数、学习、决策和行动必须清晰并接受外部审查,而且至少要有某种形式的人类诉求。

当然,不同的社会会对此得出不同的答案。有些社会可能会强调言论自由,强调程度可能因其对个人表达的相对理解差异而有所不同,并且可能因此限制人工智能在调和内容方面的作用。每个社会都会选择各自重视的观念,这可能会导致其与跨国网络平台运营商之间的复杂关系。人工智能就像海绵一样善于吸收,它向人类学习,甚至在我们设计和塑造它的时候也是如此。

美剧《西部世界》剧照。

因此,不仅每个社会的选择是不同的,每个社会与人工智能的关系、对人工智能的感知,及其人工智能模仿人类、向人类老师学习的模式也是各不相同的。但有一点是确定的,那就是人类对事实和真理的追求不应该使一个社会通过一个轮廓不明、无法检验的过滤器来体验生活。对现实的自发体验尽管有其矛盾性和复杂性,却是人类境况的一个重要方面,即使这种体验导致了低效或错误。


人工智能和国际秩序

在全球范围内,有无数问题正亟待解答。如何对人工智能网络平台进行监管,而不会引发担心其安全性的国家之间的紧张关系?这些网络平台是否会侵蚀传统的国家主权观念?由此产生的变化会给世界带来自苏联解体以来从未有过的两极分化吗?小国会反对吗?试图调解这些后果的努力会成功吗?或者有成功的希望吗?

随着人工智能的能力不断增强,如何定位与人工智能合作时人类的角色将变得愈加重要和复杂。我们可以设想这样一个世界:在这个世界里,人类在日益重要的问题上越发尊重人工智能的意见。在一个进攻对手成功部署人工智能的世界里,防御方的领导人能否决定不部署自己的人工智能并为此担责吗?即使他们也不确定这种部署将带来怎样的演变。而如果人工智能拥有推荐一种行动方案的优越能力,那么决策者是否有理由接受它,即使该行动方案需要做出一定程度的牺牲?人类怎能知道这种牺牲是否对胜利必不可少呢?如果确实必不可少,那么决策者真的愿意否决它吗?换句话说,我们可能别无选择,而只能选择扶植人工智能。但我们也有责任以一种与人类未来相容的方式来对它加以塑造。不完美是人类经验中的常态之一,尤其是在领导力方面。

通常,决策者会因偏狭的担忧而杯弓蛇影。有时,他们的行动基于错误的假设;有时,他们的行动纯粹是出于感情用事;还有一些时候,意识形态扭曲了他们的视野。无论用何种策略来构建人类与人工智能的伙伴关系,它们都必须适应人类。如果人工智能在某些领域显示出超人的能力,则其使用必须能够被不完美的人类环境所兼容并包。

在安全领域,人工智能赋能系统响应速度非常快,使得对手可能会在系统运行之前尝试攻击。结果是可能造就一种内在不稳定的局势,堪比核武器所造成的局势。然而,核武器被置于国际安全和军备控制概念的框架中,这些概念是由各国政府、科学家、战略家和伦理学家通过不断的提炼、辩论和谈判,在过去几十年里发展起来的。人工智能和网络武器没有类似的框架。

事实上,政府可能并不愿意承认它们的存在。各国——可能还有科技公司——需要就如何与武器化的人工智能共存达成一致。人工智能通过政府防务职能的扩散,将改变国际平衡以及在我们这个时代维持这种平衡所依赖的计算。核武器代价高昂,而且由于其规模和结构而难以被隐藏。与之相反,人工智能却可以在随处可见的计算机上运行。由于训练机器学习模型需要专业知识和计算资源,因此创造一个人工智能需要大公司或国家级的资源;而由于人工智能的应用是在相对较小的计算机上进行的,因此其必将被广泛使用,包括以我们意想不到的方式。任何拥有笔记本电脑、连接到互联网并致力于窥探人工智能黑暗面的人,最终都能获得人工智能赋能的武器吗?政府是否会允许与其关系若即若离或毫无关系的行为者使用人工智能来骚扰他们的对手?恐怖分子会策划人工智能袭击吗?他们是否能够将这些活动嫁祸给国家或其他行为者?

过去,外交在一个有组织、可预测的舞台上进行;如今,其信息获取和行动范围将获得极大的扩展。以往因地理和语言差异而形成的清晰界线将逐渐消失。人工智能翻译将促进对话,而且不用像以往的译者那样不仅要有语言造诣,还要精通文化。人工智能赋能的网络平台将促进跨境交流,而黑客攻击和虚假信息将继续扭曲人们的认知和评估。随着形势愈加复杂,制定具有可预测结果的可执行协议将变得更加困难。

将人工智能功能与网络武器相结合的可能性加深了这一困境。人类通过明确区分常规武器(被认为与传统战略相调和)和核武器(被认为是例外)而回避了核悖论。核武器的破坏力量一旦释放就是无差别的,不分对象;而常规武器可以辨别打击目标。但是,既能辨别目标又能进行大规模破坏的网络武器消除了这一区分。

如果再有人工智能推波助澜,这些武器将如虎添翼,变得更加不可预测,潜在的破坏性也更大。同时,当这些武器在网络中伺机游弋时,是无法确定归属的。它们无法被察觉,因为它们不像核武器那么笨重;它们还可以通过 U 盘携带,而这有利于扩散。在某些形式下,这些武器一旦被运用就难以控制,如果考虑到人工智能的动态和新兴特性就更加如此。

这种形势挑战了以规则为基础的世界秩序的前提。此外,它还让发展人工智能军备控制的相关概念成了当务之急。在人工智能时代,威慑将不再依照历史上的准则, 它也做不到这一点。在核时代之初,依据哈佛大学、麻省理工学院和加州理工学院的领军教授、学者(有政府工作经验)在讨论中形成的真知灼见,人们搭建了一个核军备控制的概念框架,继而又促成了一个制度(以及在美国和其他国家实施该制度的机构)的建立。

尽管学术界的思想很重要,但它与五角大楼对常规战争的考量是分开实施的—— 它是一种新的补充,而非对原有的修改。但人工智能的潜在军事用途比核武器更广泛,而且至少目前其进攻和防御还谈不上泾渭分明。在一个如此复杂、内在又如此叵测的世界里,人工智能成了另一种误解和错误的可能来源,拥有高科技能力的大国迟早将不得不就此进行一场持续对话。 这种对话应聚焦于一个根本问题:避免灾难,并以此求得生存。人工智能和其他新兴技术(比如量子计算)似乎正在让超越人类感知范围的现实变得更加触手可及。然而,最终我们可能会发现,即使是这些技术也有其局限性。我们的问题是,我们尚未领会它们的哲学蕴含。我们正在被它们不由自主地推动向前,而非有意识的。

上一次人类意识发生重大变化是在启蒙运动时期,这一转变的发生是因为新技术产生了新的哲学见解,而这些见解又通过技术(以印刷机的形式)传播开来。在我们这个时代,新技术已经发展起来,但相应的指导性的哲学理念却暂付阙如。人工智能是一项具有深远潜在利益的宏大事业。人类正在努力开发人工智能,但我们是用它来让我们的生活变得更好还是更糟?它允诺带来更强力的药物、更高效公平的医疗保健、更可持续的环境实践,以及其他种种进步图景。然而与此同时,它也可以使信息失真,或者至少使信息的消费和真相识别的过程变得更加错综复杂,并由此令一部分人的独立推理和判断能力日渐萎落。

最后,一个“元”问题浮现出来:在对世界有着不同解释和理解的人工智能的“辅助”下,人类能否满足对哲学的需求?人类并不完全了解机器,但我们最终将与它们和平共处,并以此改变世界?伊曼努尔 ·康德在他的《纯粹理性批判》一书的序言中以这样一个观点开篇:

人类理性具有此种特殊运命,即在其所有知识之一门类中,为种种问题所困,此等问题以其为理性自身之本质所加之于其自身者,故不能置之不顾,但又因其超越理性所有之一切能力, 故又不能解答之也。

在此后的几个世纪里,人类对这些问题进行了深入的探索,其中一些问题涉及心灵、理性乃至现实的本质。人类已取得了重大突破,但也遇到了康德提出的许多限制:一个其无法回答的问题领域,一个其无法完全了解的事实领域。人工智能的出现,带来了人类仅凭理性无法实现的学习和处理信息的能力,其可能会让我们在那些已被证明超出我们回答能力的问题上取得进展。但是,成功将产生新的问题,其中一些问题我们已经试图在本书中阐明。人类智能和人工智能正值风云际会,两者将彼此融汇于国家、大洲,甚至全球范围内的各种追求之中。理解这一转变,并为之发展一种指导性道德准则,需要社会各个阶层,包括科学家和战略家、政治家和哲学家、神职人员和首席执行官们,群策群力、各抒己见并做出共同的承诺。不仅各国内部应有此承诺,国与国之间也同样如此。我们与人工智能究竟能建立何种伙伴关系,由此又会产生什么样的现实呢?现在,是时候对此加以界定了。

作者:/[美]亨利·基辛格 / [美]埃里克·施密特 / [美]丹尼尔·胡滕洛赫尔 摘编/刘亚光 编辑/刘亚光 校对/赵琳

未经允许不得转载:大只注册|大只500代理 » 基辛格谈人工智能:如何看待人工智能时代的国际秩序?_大只500平台靠谱吗?

赞 (0)