当前位置: 首页 » 资讯 » 人工智能 » 正文

读书 | AI时代,谁决定故事该怎么讲?

IP属地 北京 编辑:沈瑾瑜 文汇报 时间:2024-10-09 09:18:15

《智人之上:从石器时代到AI时代的信息网络简史》,[以色列]尤瓦尔·赫拉利 著,林俊宏 译,中信出版集团2024年出版

1950年图灵定义了“图灵测试”以衡量机器是否具有智能,60多年后,第一个通过图灵测试的软件“尤金·古斯特曼”诞生。自那之后,人工智能就迈入了高速通道,短短几年已经渗透进了我们生活的各个方面。

智能家居、“猜你喜欢”推送、智能安防监控等技术让我们的生活越来越安全便捷。但与此同时,自动驾驶汽车、AI绘画、自动化生产线……人工智能也对许多人赖以谋生的岗位产生了巨大威胁。不论是好是坏,人工智能时代已经势不可挡。人工智能注定会带来一场盛大的信息革命,但要真正理解这场革命,就必须与过去的信息革命做比较。

未来尚在一片迷雾之中,或许我们能从历史中寻求指引。著有《人类简史》三部曲等现象级畅销书的历史学家、哲学家尤瓦尔·赫拉利,推出新作《智人之上》,从历史的视角纵观人类的信息网络在过去几千年如何发展,而人工智能又给信息网络带来了什么新变化,从中找出人类在人工智能时代的前行之路。

人类信息网络中的困境与选择

在《智人之上》中,尤瓦尔·赫拉利延续了他在前作《人类简史》《未来简史》中的重要观点:我们智人能够统治世界,并不是因为我们有多聪明,而是因为唯有人类能够进行灵活的大规模的合作。而人类的合作,是靠信息实现的,人类的历史是信息网络的历史。

在《智人之上》的第一部分,赫拉利概述了人类信息网络的历史发展过程中面临的关键困境,以及在困境中的不同选择怎样塑造出截然不同的人类社会。

第一个困境是真相与秩序。智人的崛起伴随着故事的发明,各种创世神话、宗教故事、君主救世的传说,把个人纳入家庭、民族、宗教、国家等等的网络,将公众团结起来。故事创造出新的现实:存在于主体间的现实。法律、神祇、货币、国家认同等等都是主体间的现实,存在于信息交换之中,因为人的讲述而存在。

故事有着如此重要的地位,掌握了故事的讲述资格就是掌握了权力。正如信息不等同于真相,权力也只有部分来自对真相的了解,而另外一部分则来自在一大批人中建立秩序的能力。当真相与秩序相矛盾的时候,要么是真相被限制,要么是秩序被打破。例如达尔文的进化论,它让我们接近物种起源的真相,但也破坏了许多社会秩序赖以维系的核心神话,因此许多政府与教会都对进化论的教学加以禁止或限制,宁可为了秩序而牺牲真相。

第二个困境是官僚制度。在传递故事的过程中,文件产生了。文件同样也创造了现实,而不仅仅是呈现了现实。文件记录下财产、税收与支付的相关信息,打造出行政体制、王国系统、宗教组织和贸易网络,随之而来的是官僚制度。官僚制度的重点并不是去了解世界真实的样貌,而是给世界强加一套全新、人为的秩序。官僚制度有的于个人有利,比如维持一个千万人口的城市的污水管控系统;也有的带来意想不到的后果,比如对保护动物濒危级别的判定,可能只是出于传统或习惯所决定的,但对于该动物却是生与死的区别。

但不论是有益的还是有害的,个人都很难搞清楚官僚制度背后的规则。这导致了权力的移转。随着文件成为许多社会链条的重要节点,文件开始承载着无与伦比的权力,能掌握这些文件背后的神秘逻辑,就能成为新的权威人物。

第三个困境是自我修正机制。当人无法平衡真相与秩序,信息网络就出错了。自我修正机制的第一步,就是认识到人类会犯错、会堕落。在这种情况下,机构该做的不是对人类绝望,想尽办法绕过人类,而是积极找出错误并加以修正。

图源:视觉中国

但是维持自我修正机制也有利弊。有的机构自我修正机制较弱,有的自我修正机制较强。如果自我修正机制较弱,有时就会造成人为的历史灾难,但机构的长久延续、传播与权力却也得益于此;而如果自我修正机制较强,虽然有利于追求真理,但会让维持秩序的成本大大上升,有时候则会从内部破坏网络的稳定性。

最后一种困境是分布式信息网络和集中式信息网络。人们常常会把民主与集权视为两种相对的政治与道德体系,但赫拉利将民主与集权视为两种相对的信息网络类型。民主制度会让信息沿着许多独立渠道自由流动,而中央集权制度则是将所有信息集中在一个核心枢纽,两者各有优劣。

近现代的大规模民主是伴随着录音机、电视等大众媒体兴起的,但大众媒体只是让大规模民主成为一种可能,而不是成为必然。大众媒体同样可能造就其他类型的政权,比如大规模集权。科学技术创造的只是新机会,但要追求把握哪些机会,依然由人作出选择。下一波信息革命正蓄势待发,而这将是民主与集权的新一轮竞争的基础。

如果计算机获得了主导权……

这些历史上纠缠着人类信息网络的困境并未消失,只是取得了暂时的平衡,而计算机时代将携万钧之力,强势打破现有的格局。在《智人之上》的第二部分,赫利拉探讨了如果由计算机掌控信息网络,我们的社会、经济、政治生活将变成什么样子。

人工智能是历史上第一个能够自行作决策、创造新想法的技术。赫利拉认为未来人类社会可能出现一道新的“硅幕”(相较于冷战时期国际政治格局的“铁幕”而言),其两侧可能不是民主政权与集权政权,而是一侧为所有人类,另一侧则是我们无法理解的算法霸主。

从前的故事都是人类心智的产物,但如今人工智能已经有能力讲故事、写音乐、画图像、做视频,甚至可以编写自己的代码。比起那些有血有肉的官僚,人工智能工具更懂得怎样寻找和处理资料数据,也比大多数人更懂得怎样编故事。当处理文件的任务渐渐移交人工智能,谁又能说它们不是新的掌权者呢?

计算机强大的数据处理能力,让人类开启了对它的造神叙述。许多人相信,只要给计算机足够的信息,它一定能越来越接近真理和真相,拥有智慧和力量。但计算机也是会犯错的,不是计算错误,而是像人类一样在真理和秩序的平衡之间犯错,强大的“计算机神”可能在人类身上施加如猎巫事件那样的错误。

非人类智能作出的决策已经能够塑造重大的历史事件。一个典型事件发生在2016—2017年,脸书算法助长了缅甸有关罗兴亚人的暴力冲突。脸书是缅甸人主要的新闻来源,自2016年起脸书上针对缅甸少数族群罗兴亚人的负面新闻、阴谋论乃至假新闻愈演愈烈,掀起了民众对罗兴亚人族群的强烈仇恨,终于使政府军和极端分子对罗兴亚人发动了种族清洗,摧毁上百个罗兴亚村庄,数以万计的平民无辜丧命,73万人流离失所。联合国的事实调查团在2018年得出的调查结论认为,通过散播充满仇恨的内容,脸书在这场冲突中扮演了“决定性的角色”。而这一切只是因为人类管理者为了留住用户、推高股价,给脸书算法定了一个首要目标:提升用户参与度。随后,算法通过反复试验,发现最有效的就是愤怒这种情绪,最能提升人类参与度的正是充满仇恨的阴谋论。所以,为了追求用户参与度,在没有上级明确指示的情况下,算法就做出了一个致命决定:传播愤怒。计算机与人类的差异实在太大,它采用的策略很可能是所有人类从未想到的,自然也无力预见并阻止。

新的计算机网络是好是坏还难以言明,我们能确定的是,人类将很难理解这种网络,而且这种网络是会犯错的。因此,人类建立的机构除了要能够发现各种常见的人类弱点,还得有能力察觉从未见过的错误。

图源:视觉中国

赫拉利在《智人之上》第三部分探讨了社会该如何应对非生物信息网络的裨益与威胁。

新计算机网络给民主和集权整体都带来了新挑战,但更大的威胁在于,它可能造成全球性的危机。数字霸权、数据殖民、破坏就业、将人类社会分裂成信息茧、从代码战到热战……这些可怕的未来并不是毫无征兆。

但好在目前的情况还在人类掌控之中,至少在未来几年里,我们智人仍然有能力塑造我们的未来。国际社会迫切需要针对人工智能而制定并维持一套国际协议,以前所未有的信任与自律监管人工智能。我们每个人都需要了解这场信息革命的本质,我们在编写计算机代码的时候,绝不只是在设计一个产品,而是在重新设计人类的政治、社会与文化。

历史不是确定的,冲突绝非必然。反过来这也让我们每个人都背负了重大的责任,需要作出正确的选择。只要我们放下自满,怀抱信心,就能够打造有制衡机制的信息网络,不让人类失去对未来的掌控。要做到这点,并不需要发明什么其他的奇迹技术,也不需要想出什么过去世代都想不到的天才主意。想要打造更有智慧的网络,需要的只是我们放下天真与民粹的信息观,摒弃想要绝对正确不犯错的幻想,并且认真投入一项困难但平凡无奇的工作:为各种机构制度打造强大的自我修正机制。这或许就是《智人之上》一书最想提供给读者的重要启示。

作者:汤绮云

文:汤绮云 编辑:金久超 责任编辑:朱自奋

转载此文请注明出处。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。