AI围棋程序以4比1战胜了围棋世界冠军李世石。这一新闻引发了不小的轰动,因为专家曾经预测AI在围棋上战胜人类还需要至少10年的时间。
实际上,李世石在对局之前曾自信满满地表示“我会获胜”,然而在两连败之后他的气势就弱了很多,表示“希望至少能赢一盘”。这场对局之后,李世石辩解道:“我是输在了意志力和专注力上,我并不认为AI在实力上已经超过了我。”但是,稳定的平常心、面对逆境坚韧不拔的精神以及持久不衰的体力都是实力的一部分。所以李世石用这些理由为自己辩解,更说明他输得非常彻底。
给我留下深刻印象的是最后的第五盘。李世石在第四盘勉强扳回一分之后表示:“我已经发现AI的弱点了,它无法应对一些出乎意料的下法。”但在第二天的第五盘中,AI就克服了自己的弱点,可见AI成长速度之快。
另一方面,对于一些宣扬“人类彻底失败”的报道,我也并不认同。毕竟,人类在计算能力上甚至比不过很便宜的计算器。
话说回来,人类是为了弥补自己能力的不足才发明了计算机,并将其发展到如今的水平。看着“自己的孩子”茁壮成长,哪有反而感到嫉妒的道理呢?而且,像围棋这种存在正确解法的游戏,正是AI所擅长的领域。
创造、直觉、人情——很多人将这些误认为是“人类所特有的智慧”。如今的AI不仅能撰写新闻报道,还能创作诗歌、音乐和绘画,其水平已经远远超过了普通人。能倾听烦恼的AI咨询师也很受欢迎,很多体验过的人表示:“它能平和且认真地倾听我的诉说”“可以和它谈论一些不想跟别人提及的私事”。
AI绝对不是与人类对立的敌人,而是值得依靠的伙伴。同时,AI的出现也为我们提供了重新思考“到底什么才是人”这个问题的契机。
《怪诞脑科学:人类奇怪行为的脑科学原理》,[日]池谷裕二 著,周自恒 译,人民邮电出版社2024年1月版。
重新定义“人性”的概念
AI因其实用性和有益性而被认为是一项非常有前途的技术。但与此同时,人们也存在一些担忧,比如,AI会不会争夺人类的工作岗位?会不会发生失控以至于威胁到人类的生存?
在上述担忧之中,前者促使我们思考“只有人类能完成的工作是什么”,或者说“人到底是什么”,换句话说就是必须重新定义“人性”的概念。除此之外,由于AI代替人类工作会减少纳税人数,因此其还会涉及国家层面的经济结构重组,可以说这是一个非常深刻的话题。
关于后者,人们的恐惧则相对单纯。这一问题的主旋律是担心是否会出现能够奴役人类的AI,也就是科幻小说中比较常见的那种担忧。
安全性包括safety(侧重于保护人的身体健康和福祉)和security(侧重于保护人、财产和信息免受威胁或损害)两层含义。人们往往更倾向于关注safety层面的安全,但其实在我们身边现实存在的威胁是security层面的漏洞。
美国华盛顿大学的河野忠义博士等人是一个专门研究计算机安全漏洞的团队。他们于2017年7月发表的一个名为“RP2”的算法引发了热议。该算法可以让AI对图像的识别以很高的概率出现错误。
电影《她》(2013)剧照。
例如,利用RP2算法,可以让自动驾驶汽车上搭载的摄像头对道路标志产生误判。论文中展示了一个可以让AI以100%的概率将停车等待标志误认为道路限速标志的具体例子。这个方法非常简单,即便不具备专业知识也能够人为干扰AI的识别结果。如果该方法被人恶意利用的话,其后果是显而易见的。我认为,与其担心“失控的AI奴役人类”这种科幻情节,还不如担心AI的安全漏洞更具有现实意义。
AI和人类相互取长补短
在大学里,最辛苦的工作莫过于组织入学考试了。因为不但对考务工作的要求十分苛刻,而且防止作弊也非常困难——如果为了杜绝作弊行为而提高判定标准,就会不可避免地冤枉好人,但也不能对那些可疑的行为放任不管。
最近,使用智能手机进行作弊的行为成为了新的防范目标。原则上说,在考试过程中上厕所需要由监考老师陪同。当然,这意味着监考老师的男女比例必须平衡才行。但是,一个考场中通常只能安排几名监考老师,所以过去曾经出现因10名考生一起上厕所而不得不放弃陪同的情况。
其根本问题在于,便携式设备的性能已经超越了人脑。类似的现象在专业领域也会发生,比如将棋。
计算机将棋程序的水平已经超越人类棋手很久了,但日本将棋联盟的基本作风还是对棋士道的清廉精神表示信任。但是,在体育运动的世界中,将是否使用兴奋剂寄托在运动员的道德和良心上是完全说不过去的。在实际的将棋比赛中,经常发生棋手离席的情况,这让日本将棋联盟也不得不对此采取行动。
如今,在正式比赛中出现的新棋路,大部分都来自计算机将棋程序。在一般的职场上,早晚也会出现类似的现象。人的“聪明”所具有的价值没有以前那么高了,因为AI更可能会做出合理的判断。
电影《机器人之梦》(2023)剧照。
将来,可能每个人都会和AI结对工作。当然,最终承担工作的还是人类。也就是说,在职场这个舞台上,人类会变成按照AI所编写的剧本进行表演的专业演员,并通过其具有迷惑性的演技让观众(雇主)支付演出费(工资)。现在的棋手所面临的状况,也许预示着将来职业的演变方向。
NIST(美国国家标准与技术研究所)的菲利普斯博士等人在《美国国家科学院院刊》(2018年6月)上发表的一篇论文中的调查结果显示,AI与人类协作可以提高成绩。菲利普斯博士等人的实验对象是人脸识别测试,受试者会看到两张人脸的照片,然后判断这两张照片中的人脸是否为同一个人。
人类具有较大的个体差异,有些人擅长辨别人脸,而有些人则不擅长。法医学专家和入境审查员之中,有很多具备卓越的人脸识别能力的人,他们具备超凡的个体辨别能力,其准确性甚至超过了指纹识别。AI也毫不逊色。过去3年间,AI的人脸识别性能快速提升。
菲利普斯博士等人选择了4种特别优秀的AI模型,测试表明,它们的人脸识别成绩与顶级的人类专家旗鼓相当。接下来,菲利普斯博士等人对人类与AI的协作情况进行了测试。对于普通人来说,在参考AI识别结果的基础上进行判断时,成绩确实得到了提高,而且判断的波动得到了抑制,成绩变得更加稳定。有了优秀的AI给出提示,成绩会提高,应该说是理所当然的。
那么,让顶级人类专家与AI协作又会如何呢?令人惊讶的是,两者的成绩都得到了提高。也就是说,人脸识别的成功率在目前依然没有达到极限。也许AI并不是用人类的方法来识别人脸的,AI和人类各自擅长识别的人脸类型是不同的,通过相互取长补短,就可以突破各自的极限。
世界将迎来AI的时代,从这一研究中我们或许可以窥见未来的一角。
人类独有的能力是什么?
《自然》杂志(2021年2月)发布了一种名为“拉马努金机”的AI。这是以色列理工学院的卡米那博士等人所做的一项研究。
拉马努金是一个真实存在的人物,他是一位英年早逝的印度天才数学家。虽然没有接受过高等数学教育,但拉马努金的脑海中会不断闪现出各种数学定理,按照他本人的话来说,这些都是来自“数学女神”的启示。他的笔记中共有大约4000条定理,其中有已知的定理,也有很多未知的重要定理。不过,拉马努金本人并不具备证明这些定理的能力,因此他身边以及后世的数学家都在努力证明这些定理。
电影《终结者:黑暗命运》(2019)剧照。
这次所发表的新AI用这位伟大数学家的名字命名,大家应该能推测出它具备什么样的能力了吧——就是像拉马努金一样提出各种数学定理,但并不会去证明它们(严格来说,这些不是“定理”而是“猜想”)。也就是说,这个AI的作用就是为专业数学家生成“题库”。
这个“题库”中有数学家长期以来一直在尝试证明的待解决问题,也有证明难度较大的未发现的问题。其中一些重要定理一旦被证明,就可以被运用在物理学等领域,因此这个AI也具备很高的实用价值。数学家泽尔博格说过:“人类研究数学这件事早晚是要被时代淘汰的。”现阶段,拉马努金机还不能自由提出任意领域的数学定理,而是只能生成“连分数”这个特定类型的算式。但尽管如此,这说明曾经被认为是人类专利的“灵感”和“洞察”,似乎AI也可以具备了,这一点所带来的冲击恐怕已经超出了数学的范畴。
我们必须面对一个哲学问题:人类独有的能力是什么?
有人将AI的能力凌驾于人类之上的时刻称为“奇点”。对于“将来AI奴役人类”这种预想,虽然在大众中接受度很高,但专家基本上都是不太相信的。不过,由于偏见和歧视而导致AI表现出一些不恰当的行为,这种可能性却是真实存在的。
“深度学习”在图像识别领域获得了巨大的成功,它也是这一波AI浪潮的主要推动者。深度学习起源于谷歌公司于2012年所发表的成果。谷歌让AI随机观看1000万张互联网图片,然后让AI自动识别其中的猫咪等对象。对于传统的AI,设计者必须事先明确告知“猫咪是什么样的”,但深度学习不需要这样的信息就可以自主进行学习,这一点可以说是划时代的。
这一历史性事件被称为“谷歌的猫咪”,其实它其中已经隐藏了深度学习受人类的偏好或偏见影响的风险——为什么AI识别的第一个动物不是狗狗而是猫咪呢?原因很简单,因为爱猫人士更喜欢把猫咪的照片发到网上,于是AI遇到猫咪图片的频率就会更高,学习的机会也会相应增加。
就目前来说,自动驾驶汽车所搭载的对象识别算法,对于肤色较深的人种识别灵敏度较低。商用人脸识别应用程序的准确性也存在人种偏差(其中谷歌相册将黑人误判成大猩猩的案例非常有名)。此外,对人的行为的公正性进行判定的AI也会做出对黑人不利的判定。在这些例子中,AI设计者本身都没有恶意,罪魁祸首是现存数据中的固有偏差。也就是说,社会偏见会如实地传导给AI。尽管以“奇点”为代表的科幻想象中,人类与AI处于纯粹的对立地位,但人类真正的敌人恐怕并不是AI,而是那些恶意使用AI的人们,或是在不知不觉之中腐蚀人类的潜在偏见。
随着大规模的数据收集变得越来越容易,“大数据”已经成为我们身边一个常见的概念了。在这样的时代中,我们所面临的下一个问题就是:我们应该如何对待大数据?
很遗憾,人脑能够同时处理的信息量是有限的。仅是盯着大数据看的话,根本无法从中获取有意义的信息,也无法将其作为可供参考的判断依据。所以,我们需要对数据进行分析,从中提取有用的信息,也就是所谓的“数据挖掘”。
不过,数据挖掘已经是一种像化石一样十分古老的方法了。近年来,两种处理大数据的新方法取得了成功,就是“深度学习”和被称为“深度Q网络”的AI。
深度学习是一种神奇的算法模型,只要对计算机输入大量的信息,就可以在无须事先传授任何知识的情况下,让计算机学会识别动物、物体以及人的表情和对话等。相比之下,深度Q网络则更加神奇。深度Q网络是于2015年2月发布的一种算法模型,它可以做出恰当的行动和决策。例如,让这个模型玩市面上的49种电子游戏,它可以在其中29种游戏中达到高级玩家的水平。
电影《非凡》(2015)剧照。
重点在于,我们并不需要向深度Q网络提供游戏的操作说明,也不需要告诉它画面上所显示内容的含义,以及手上的控制器具有什么功能……只要为它设定“得高分”的目标,深度Q网络就可以自主学会“应该做什么”,并取得超越普通玩家的成绩。
就连这个算法的开发者也表示,深度Q网络在学习过程中的内部运算已经完全无法理解了。所谓智能就是“超越人类智慧”的意思吧。不过,无论其原理如何,如果深度Q网络比人类更善于决策,那么将来把人生规划和公司决议都交给它来决策可能会更加高效吧。
本文选自《怪诞脑科学:人类奇怪行为的脑科学原理》,较原文有删节修改。已获得出版社授权刊发。
原文作者/[日]池谷裕二
摘编/何也
编辑/张进
导语校对/刘军
未经允许不得转载:大只注册|大只500代理 » 大只500注册平台下载_《怪诞脑科学》:到底什么才是人?