01
天真的信息观
提问:算法在掌控我们的注意力。我看过一个段子,说一个年轻人打开手机想帮受伤的朋友叫一辆救护车,结果被弹窗带到短视频平台点开就是刷,完全忘了朋友受伤的事。
现在很多人都在反省,自己已经失去了主动检索信息的能力,大部分都在被动地接收信息,如果从历史学的视角看,人类是在什么时候开始逐渐遗失这项能力的?
赫拉利:要理解我们对信息的消费方式发生了什么变化,可以用食物做个比喻。100年前食物很稀缺,所以人们吃他们能找到的一切食物,并且大家喜欢富含脂肪和糖的能量充足的食物。时至今日食物已经很充足了,如果人们还是什么都吃,过量摄入脂肪和糖的话就会生病。所以大家开始节食。
信息也是一样。在过去信息很稀缺,所以我接受能获得的任何信息。现在我们已经被大量信息淹没,尤其是那些无用信息——这也会让我们生病。我们需要进行信息节食。
信息节食的第一步就是放弃“更多信息总是对我们有益”这样的想法。第二步则要有意识地筛查信息质量。就像我们必须对摄入的食物谨慎一般,我们也应该对放入大脑的精神食粮谨慎。特别要注意,避免用过量的仇恨、贪婪和垃圾信息填满大脑。
现在许多国家都会为垃圾食品标注成分表——“这含有40%的糖,20%的脂肪”。也许我们也应该强迫信息提供者们做同样的事情,比如在观看某些视频前,列出该视频包含的内容——“这含有40%的贪婪,20%的仇恨”。如果你想摄入一些这样的“有害”信息,至少要理解它的危害性。
最后,定期开展“信息断食”是有益的。我个人每年会进行为期几周的冥想闭关,期间完全断开与外界的联系。我不看新闻,不读任何电子邮件,不写书,只冥想。我花时间来消化我的头脑已经摄入的信息,而不是填充更多。对大多数人来说几周是有点长了,但偶尔进行一两天的禁食也是不错的选择。
提问:然而互联网时代的“信息焦虑”无处不在。以前我们总觉得知道得越多越好,一天没浏览社交媒体就担心自己错过什么。但现在我们开始难以区分究竟哪些是有效信息,而那些看似无效的信息又是不是真的不被需要。说到底,你认为哪些信息能称得上知识?
赫拉利:是的,以前我们将所有信息等同于知识,觉得拥有的信息越多,拥有的知识也就越多。很明显这是错误的——大多数信息都是垃圾,而知识是那一小部分稀有且昂贵的信息。
想编造一个引人入胜的“假新闻”是很容易的——你只需随心所欲地写,无需花费一分钟进行研究。但相比之下,写一篇真实的报道则很困难,因为这背后需要做的研究费时费力。而且,你所写的真相收获的关注度可能远小于“假新闻”,因为事实往往很复杂,而人们不喜欢复杂的故事。这也就导致错误的信息总是会比真相传播得更容易。
“自我修正机制”在大自然中无处不在,儿童学会走路就是依靠有效的自我修正机制:你迈出一步,摔倒了,再尝试稍微不同的方式,再次摔倒,再次纠正自己,直到做对——科学也是这样运作的。我们提出一个模型,效果不佳,我们就承认错误、改变模型。
所以,如果有人拒绝承认错误,永远不要相信他们。如果有人承认错误,他们就是真正的知识源泉。
提问:延续上一个问题,近几年“知识无用论”,尤其是“文科无用论”甚嚣尘上。当很多名校毕业的年轻人毕业即失业,找不到工作时还是会陷入迷茫——早知道就学数理化了。如您所言,人类更擅长讲故事,但这种能力如今却成了利益最小的、效率最低的领域,被大家所摒弃。您怎样看待这种现状?
赫拉利:现在人们觉得就业前景有很大的不确定性,人工智能迅速改变了就业市场,以至于我们无法预测未来还需要哪些技能。对理工科的认知也是一样,很多人觉得学编程、代码很重要,因为计算机是未来。但几年后,AI编码可能比人类更好,那是不是我们也不需要人类程序员了?相反,也许到时候我们会更需要哲学家、心理学家,因为世界剧变会带来更多哲学和心理问题。
举个例子,要实现车辆智能无人驾驶,我们必须将道德规则也编码到驾驶程序中。那假如出现紧急情况,车辆必须为了救行人而危及车内乘客的安全呢?也许并不需要人类程序员解决此类问题,因为AI可以编写这段代码,但(我们)却需要人类哲学家来为AI制定道德规则。
同样,理工科专家也无法告诉你AI会如何影响人类心理健康、亲密关系和社会生活。为此你需要历史学家、心理学家和艺术家。看看我们周围的世界——计算机科学家发明了社交媒体算法,但他们不能预见算法对儿童的负面影响。你认为谁最适合帮助改善儿童处境——研究计算机的人,还是研究人类的人?
02
人工智能“造神”
提问:算法也在影响我们的行为。现在我们习惯于在吃穿用度上都听听算法是怎么评分的,甚至包括亲密关系的潜在对象也可以用软件量化。但反而我们感觉很多事都变难了——高评分的餐馆也可能不好吃,软件匹配到的人也合不来。算法真的提升了效率吗?为什么我们觉得生活越来越无聊了?
赫拉利:依赖算法来评价一切的做法会带来毁灭性的影响。逐渐地,我们都被迫变成“被动的消费者”,而不是“主动的生产者”。
以亲密关系为例,我可以试着通过算法匹配来找到另一半。如果要这么做,前提一定是假设在世界某处真的存在这样一位真命天子——我只需要找到他或她。这就像一个非常困难的寻宝游戏,地球上有80亿人,我要怎么找?
为了解决这个问题,我把这份工作外包给了算法。我自己不需要做什么,只需要坐下来等待算法大显神通就行了。基于海量数据,算法会为我潜在的对象们打分,让我试试那些最高评分的人。如果我对这些“产品”不满意,我就直接把它丢回架子上,等着算法给我推更好的产品。反正我的灵魂伴侣仍然在世界某处,算法迟早会为我找到他的是不是?
这种态度很可怕,它刺激着我们不断因为微小的瑕疵而拒绝潜在候选人,转而去等待一个完美的人出现——反之它不会鼓励我来改变自己,我只是被动地在接受“伴侣”这项产品。
但我们也可以试试另一种做法——把人类看成亲密关系的创造者,而不是消费者。问题压根不是如何找到完美伴侣,“完美伴侣”是不存在的。真正的问题是,无论算法为我找到谁,我都需要通过自己的努力去建立一段良好的关系。找到爱真正的困难之处不是找到那个难以捉摸的灵魂伴侣,而是每天努力去与身边真实存在的人建立关系,并努力改变自己的行为和思维模式里的问题。这项工作,我不能指望任何算法来替我完成。
提问:很多人都在担心AI取代我们的工作,也有一部分人觉得无须担心,至少10年内AI还无法理解人类的创造力和共情能力。对此你怎么看?如果要为即将到来的人工智能时代做技能和知识储备,又或者说心理准备,你会给Z时代年轻人怎样的建议?
赫拉利:诚然,AI将会改变就业市场,但我们很难准确预测哪些工作会发生变化或消失。在这个问题上,直觉判断可能会带来误导。
例如,我们通常认为医生比护士更重要,至少从薪水和社会地位来看是的。但人工智能可能更容易取代医生而不是护士。为什么?许多医生的工作主要是分析数据,他收到大量关于我的症状和病史的数据,他们分析数据、诊断疾病,并推荐治疗方案。这种数据分析恰恰是人工智能的优势,它们马上就能比人类做得更好。
但护士的工作就不仅是分析数据了,他们还需要良好的动手能力和社交技能来换绷带、给哭泣的孩子注射疫苗。这都是更难自动化的事情。因此,人工智能医生可能会出现得比机器人护士快。
因此,如果要给年轻人一些建议,最安全的做法是去更广泛地学习技能,而不是专注于某种垂类技能,比如编程。他们应该提升动手能力、发挥同理心,就像过去锻炼智力一样,运动技能和社交技能同样重要。当然最重要的就是——能够在一生中不断学习和改变。要在21世纪蓬勃发展,你需要一个非常灵活的头脑。
那么如何培养一个灵活的头脑呢?你要先了解你的头脑是如何工作的。你的思维和感情来自哪里?为什么你喜欢某些事物而讨厌其他事物?是什么塑造了你的恐惧和欲望?有些人会通过冥想来探索这些问题,还有的通过心理治疗、艺术或运动解决。无论哪种方法适合你,你都要在上面投入时间和精力。了解自己的头脑是你能给自己的最好的礼物。
提问:“人工智能不必发展出意识也能做决策,威胁到人类文明”,根据目前AI发展的态势,最先受到冲击的会是哪些行业领域?你觉得未来5年(以现在的发展速度来说10年都有点太久了),人类世界的秩序会迎来怎样重大的改变?
赫拉利:人工智能对世界秩序的威胁很好理解,例如某个暴君用AI控制他国的核武器,或者恐怖分子指示AI制造新的流行病。再想象一下对金融界,对于AI来说,金融是它们理想的游乐场——这是一个纯粹的信息和数学领域。人工智能仍然很难自主驾驶汽车,因为这需要在混乱的物理世界中移动交互。你很难在物理世界定义什么是“成功”,但在数字世界里,数学是很容易界定“成功的”,用AI处理贸易,更多的美元就等于任务完成。
假设一家投资基金会分配给AI一项任务,让其赚取尽可能多的美元,人工智能不仅能制定新的投资战略,甚至还可能开发出完全超越人类理解的全新金融工具。
或许几年来一切都很美好,AI发明的新金融工具导致市场飙升,投资者赚取了数万亿美元,可再然后,如果出现了比2008年金融危机更大的崩盘该怎么解决?人工智能创造的金融工具就是一个黑匣子,就算事实证明它存在危险的缺陷,人类也没有办法监管它,因为金融学家和政客都不懂它的运行原理。
03
在AI时代保持清醒
提问:社交媒体会重复放大那些人类社会的错误,更令人忧心的是我们很难察觉哪些判断是由算法决定的。比如重男轻女思想和“白幼瘦审美”,其实很多人在抵制,但这些抵制的声音不会传递到支持它的人们的手机中去。那么,想要自己保持开放的思想和自我修正机制,我们应该怎么做?
赫拉利:正如前文所述,最重要的是更好地了解我们自己的思想,因为算法会利用我们自身的弱点来对付我们。操纵性算法不能无中生有地制造贪婪与仇恨,它们需要发现你内心已有的渴望和仇恨,才能按下你情绪的按钮,操控你完成他想做的事。
自古以来,智者们一再建议人们要先“知己”。然而,在佛陀和孔子的时代还没有这么大的压力。如果你不想了解自己,对于其他人来说,你依然是一个黑匣子,没人能猜透你。但现在情况不同了——当你阅读这些文字时,各大公司和机构的算法都在努力解读你这个人。如果算法比你还要更了解你自己,他们就可以轻松地操纵你。所以,这个时代要求我们必须努力去“知己”。
提问:《人类简史》中你提到人类文明“分久必合才是不变的大趋势”。那么在人工智能登上历史舞台后,这个结论依然不变吗?可我们为什么会觉得在后疫情时代,人们似乎越来越无法理解他人的话语了?尤其是那些和自己不同的人。
赫拉利:确实很不幸,当下我们看到全球合作在减少,国际紧张局势升级。这非常危险,因为任何一个国家,无论多么强大,都无法单凭自身来阻止生态环境崩溃、避免第三次世界大战,或者规范人工智能。如果各国不能就这些问题找到合作方式,人类将会毁灭。
尽管如此,一些政客反对全球合作,因为他们认为这是“反爱国主义”。这是一个危险的错误——爱国主义与全球主义并没有矛盾,爱国主义并不意味着仇视外国人。爱国主义需要热爱你的同胞,但确保你同胞的安全和繁荣是需要与其他国家合作的。就像环境和人工智能的问题,善于全球合作就是一种爱国的行为。
提问:坦白说,作为内容从业者我们也深深感觉越来越难做。阅读量高的文章和真正有价值的文章往往是两回事,但往往是阅读量高的文章才会正向反馈在我们的工资上。作为信息的加工生产者,媒体又该怎样应对这场和算法的战争?
赫拉利:首先我们应该时刻保持责任感。媒体生产和发布的信息就像播种在数百万人心中的种子,如果我们在数百万人心中播下贪婪、仇恨或无知,将会在极大范围内造成痛苦。其次,我们不应对算法机制感到绝望——这并不是我们在对抗算法的尝试中失败了,而是因为我们根本还没有尝试过。
汽车行业是个很好的对比项。每个人都认同,当一个公司生产汽车时,他们必须投入大量预算和精力来保证安全,现在也有许多规定来限制汽车的行驶方式。但当公司开发算法时,他们几乎不投入任何资源来保证赛博世界的安全,也没有什么规定限制算法在世界的运行。这是非常危险的,因为算法比汽车强大得多,它可以造成更多生理和心理上的损害。
因此,我们应该将对待汽车的原则也应用于算法上,人工智能公司应该至少将其预算的20%投入安全研究,而人工智能也必须像汽车一样遵守人类世界的规则,媒体应当鼓励公众和政府支持这些政策。
编辑:辛鑫
审核:张海洋