和《未来简史》作者聊完AI,我觉得自己会爱上一台冰箱|少数派的未来猜想

首页 > 科技 > 36氪
来源:36氪 发布日期:2019-03-16 10:05 浏览:10次

人们常常担心机器冷酷无情,但问题可能恰恰相反。


 | 龙真梓

翻译 | 秘丛丛 李胜楠

头图来源 | Pixabay


2119年的一天,氪市法院审理了这样一桩离婚案。原告A,一名65岁的男性,向法院起诉自己的妻子婚内不忠,请求法院判决离婚。然而,导致两人感情破裂的“罪魁祸首”却是一台冰箱。

也许生活在2019年的人,会对这个案件感到不可思议。但在《未来简史》作者尤瓦尔·赫拉利的判断中,100年后人类夫妻因爱上电子设备而感情破裂,却可能会成为一个并不罕见的现象。

尤瓦尔·赫拉利,这位来自以色列的作家,因为写作“简史三部曲”在全球声名鹊起。在“三部曲”中,赫拉利从十万年前地球初现生命迹象开始回溯,一路猜想到人类长生不老之后的生活。作为一名深谙历史规律的作者,赫拉利对未来的猜想建立在对过去的追问上。然而历史的隐喻却让他对未来——那个人类与AI并行的世界,难以做出彻底乐观的判断。

他认为,21世纪的人类智慧仍然参差不齐,倘若此刻AI的巨大能量被共享,将很有可能创造出像芯片一样运作的人类。这种“芯片人”会缺乏同情心、艺术敏感等细腻的人类情感。换言之,AI的进步很可能会造成人类本身的“降级”而不是“升级”。

另外,一些大型魔幻主义现场也会空降人间。比如,最理解我们的人不再是亲人和爱人,而是你的电脑、洗衣机,还有冰箱。想象一下,当饥肠辘辘的你深夜到家,电脑自动播放让人放松的歌曲,洗衣机已经洗好、叠好所有的衣物。冰箱就更贴心了,它早就将你的健康情况和饮食习惯牢记于心,用一碗温度刚好的晚安粥,代替了并不健康的奶茶。这时,你看到正和机器人一起打游戏、却对你不闻不问的丈夫。倘若这样的生活日复一日,有一天你对冰箱的爱意超过丈夫,也并不是那么难以想象了。而这只是未来社会魔幻的一角,等到人类和机器共生的那一天到来,机器也许将不再是机器,人类也许也不再是人类。

“相信我们很快就能掌握大规模监控和操纵人类情感的技术。但我们仍然缺乏使用这种技术的智慧,因为我们对人类幸福和苦难的深层来源知之甚少。”这是一个典型的赫拉利式警告。



以下为访谈中的关键内容,经36氪编辑略有删节:

36氪:AI已经离我们的生活越来越近。在你眼中,人类和AI的相处方式应该是怎样的?

赫拉利:首先我们应该承认,在很多领域人类将无法与AI竞争,很多传统的人类工作将自动化。在这一点上欺骗自己,是没有意义的。

其次,我们不应恐慌。AI在很多方面的崛起非常有益,比如它能更安全地驾驶汽车,提供更好的医疗护理,还能帮助人类解决生态危机,这些都是很棒的事情。

第三,我们也不该过于乐观。人工智能的崛起确实会给人类带来很大危机,我们应该对这些危险有清晰的认识,并集中精力寻找解决方法。其中一个危险是,人工智能可能只会让一小部分精英变得强大,而大多数人将变得无用。我们必须确保所有国家和不同阶层的人民能平等分享AI带来的巨大利益。

另一个危险是,即使AI的巨大力量能被共享,人类仍会滥用这种力量。AI有智能,但不太可能拥有意识。因此,只有人类的大脑才能最终决定如何使用AI。不过目前人类的思维仍欠发达,不适合控制AI的巨大力量,这就像让一个孩子开飞机。如果我们继续在AI研发方面投入过多,而在探索人类思维方面投入过少,那么复杂的人工智能可能只会助长人类天生的愚蠢。AI的力量将把人类变成神,一个不满足也不负责任的神。

36氪:也许沿着现在的发展路径,人类会变得无用。但如果人类想要改变这种无用的“宿命”,我们可以做些什么?

赫拉利:为了避免这种结果,我们每投入1美元和1分钟来研发人工智能,也应该同时花费1美元和1分钟研究人类思维。但是,目前我们在人类思维的研究上做得太少。如果我们不够谨慎,滥用了“升级”的计算机而让人类“降级”,那么将给人类以及整个世界造成严重破坏。

我们需要明白,在整个人类群体中,可以操纵并理解各种系统的智慧参差不齐。而且不幸的是,操纵比理解容易得多。这就好像在河上修建大坝,修建很简单,难的是理解它对生态系统的影响。然而人类早在真正理解自身行为的后果之前,就开始操纵事物了。

过去,人类已经学会操纵自身之外的世界,比如控制河流、动物和森林。但由于不了解生态系统的复杂性,人类也滥用了自己的力量:我们使生态系统失衡,现在就面临着生态崩溃。

36氪:你怎么看待基因编辑?如果人类开放基因编辑,世界会发生什么变化?

赫拉利:我认为现阶段进行基因编辑还太危险。

遗传学和AI将让人类有能力重新设计身体和心灵,并能操纵情绪、思想和感受。但由于我们不了解内部思想系统的复杂性,就很可能会滥用这种能力。

例如,政府和公司可能会鼓励发展智力和纪律,但却没有兴趣培育人类的感性思维。这样造成的结果是人类会变得聪明、纪律严明,但同时又缺乏同情心、艺术敏感性和精神高度。最后我们可能会失去很大一部分人类潜能,甚至都没有意识到自己曾拥有过它们。

36氪:大部分技术诞生的目的都是实践。我们眼前的问题可能只是在什么时点去实践它。你觉得什么时候才是这个时点?

赫拉利:我建议直到人类对身体和精神有了更好的理解之前,都不要运用像基因编辑这样的技术。否则,技术本来是为了“升级”人类,却可能造成“降级”。人类在其他动物身上做的实验已经证明了这一点。例如,人类培育了产奶量很大并且性格温顺的奶牛,但这些奶牛远远不比它们的野生祖先那样灵活、好奇和机敏。同样,我们现在正在创造驯服的人类,让他们像高效的芯片一样具备处理海量数据的能力,但这些数据很难将人类的潜能最大程度地发挥出来。

事实上,我们不了解人类的全部潜力是因为我们对人脑知之甚少。并且,现在有许多人认为提高网络效率比探索人脑更重要。

36氪:很多人看完《未来简史》后,对未来充满绝望,因为在书里他们觉得人类没有未来。你觉得至少在现在,我们还应该对未来充满希望吗?这种希望应该建立在什么基础之上?

赫拉利:我们应该记住,技术永远没有确定性。在20世纪,一些国家利用电力、火车和无线电的力量创造了像纳粹德国这样的极权主义独裁政权,而其他国家则使用完全相同的技术创造出了自由、富有同情心的社会。同样,21世纪的技术也能创造出完全不同的社会,这取决于我们自己的决定。

最糟糕的情况是,人工智能会把数亿人赶出就业市场,这些“无用阶层”的人们将失去自己的经济价值和政治权力。与此同时,AI也会让另一小部分精英人群升级为“超级人类”。再加上未来每个人的行为、思考都可能被实时监测,因此普通人类也许将无力招架这群“超级人类”。

最好的情况是,新技术不会造成“无用人类”和“超级人类”的区隔,反而将使所有人免于疾病和艰苦的劳动,更有精力去探索自己真正的潜力。在这种情况下,人工智能虽然还会让很多工作消失,但由此产生的利润将会为每个人提供免费的基本服务;最尖端的监控技术也不会用在公民身上,而会用于监视机构以确保没有腐败;生物识别传感器也不是警察监视普通人的工具,反而能帮后者更好地了解自己。

36氪:现在看来,哪种情景更可能成为现实?

赫拉利:我们似乎正朝着反乌托邦的方向前进。目前来看,全球合作是有效监管此类颠覆性技术的唯一途径。不过由于全球紧张局势日益加剧,导致人类无法在国家层面上规范生物技术和人工智能。比如,现在大多数国家都在禁止人类婴儿的基因工程,但只要一个国家开了先河,很快每个国家都会跟风,因为没有人甘心被落下。

36氪:如果未来人类能够通过新技术(如放置颅内留电刺激器、植入芯片等)操控情绪,那感情也能被操控吗? 亲情、爱情、友情这些感情将何去何从?

赫拉利:这是我们面临的最大问题之一。人类很快就会掌握能够大规模监控和操纵情感的技术,但我们仍然缺乏使用这种技术的智慧。日常生活中的一个具体例子是:一旦机器比家人更了解我们,将会发生什么?

我们都知道,人类渴望得到理解,常常希望身边的人(母亲、老师、妻子、老板)可以理解自己的感受。不过在日常生活中大家都专注于自身,所以很多人常常无法理解他人的经历。相反,机器可以直触我们的心灵和大脑,同时又不会分心关照自己的情绪,所以它们能敏锐感知人类感受的微小变化。想象一下,当你下班回家压力很大、脾气暴躁时,也许你的丈夫没有注意到你的情绪,但你的冰箱会立刻察觉并提供能舒缓心情的食物。这带来的后果是,我们会完全习惯机器,同时又对他人极其不宽容。如果这样的事真的发生了,会对人际关系和人类社会产生什么影响?

人们通常担心机器冷酷无情,但问题可能恰恰相反。更重要的是,对这些即将彻底改变政治、经济和日常生活的事情,我们可能无力招架,因为我们对人类幸福和苦难的深层来源知之甚少。



「少数派的未来猜想」栏目介绍:

「少数派的未来猜想」是36氪一档关注科技、小趋势的全新栏目。在这里,我们会采访拥有聪明大脑的少数派,深入解读他们对未来的猜想。虽然少数派们的面孔不一,可能是书籍作者、创业者,也可能是科研领域的行业专家。但相同的是,不论是大数据、云计算、还是无人驾驶和5G,他们预测未来趋势的灵感会在这里闪光。

  阅读原文
支持0次 | 反对0次  
  用户评论区,文明评论,做文明人!

通行证: *邮箱+888(如:123@qq.com888)