拉尔森连忙解释:“是这样的,我们曾经根据的,是2038年、刚刚实施全民监控计划时调用的‘自杀心理学大数据建模’,来判断一个人是否害怕死亡的。
当时,我们成功地阻止了绝大多数因为生活无望、一心求死并报复社会的打击房价自杀者。可是,随着案发率的降低,以及这几年来芯片植入后大家都可以出卖尊严赚取基本生活费,所以‘饥寒交迫型不想活的人’急剧减少。
我们的大数据统计模型,没法算出‘人在衣食无忧、只是精神受到持续无聊和被鄙视压力’模型下,究竟有多大的自杀概率、自杀前的行为模式是怎样的。因为自杀成功的人太少了,大数据样本容量不足以支撑这项研究。
您知道的,基于分析大数据的人工智能分析算法,充其量依然只是概率论层面的复盘建模,它并不能理解人性。而如果人性受到前所未有的重大黑天鹅事件冲击、会产生何种应激反应,没有先例可循的大数据和人工智能,是无法预测的……
所以,这次我们没有预测到那些此前准备参加绝地大逃杀比赛、搏命求成为上等人的选手们,有多少会被煽动而火线倒戈、宁可死掉也要火一把。这造成了我们应对上的严重失衡……”
蒙扎克听着听着,渐渐安静了下来。
他反而并不愤怒了,取而代之的是深深的忧虑。
深度学习型人工智能,是靠大数据的喂养来建模和预测社会演变、人类选择的。
但是,这种人工智能有个最大的弊端,那就是它并不懂逻辑,所以没有对黑天鹅冲击的预见能力。它只是基于人类已有经验的总和,或者说人类历史上所有发生过的事情,来推测未来。
打个比方,早在2010年,谷歌公司的社会预测型人工智能,就发出过一个推演:
说不吃早餐的人,性-**的概率会远远高于吃早餐的人的4.3倍。
这个数据准不准?
准,飞常准。
在全世界当时可被精确统计的样本里,不吃早餐的人拥有多个混乱性伴侣的比例,确实是吃早餐的人的4.3倍。
可问题是,人工智能知道这背后的逻辑原理么?看得懂因果关系么?
不,它看不懂。
大数据只看事实结论,它不关心逻辑。
如果非要它给个逻辑,或许它会敷衍塞责地写一句:“因为不吃早餐,所以喜欢找更多异性啪啪啪”或者“因为我找了更多异性啪啪啪,所以我不想吃早餐”。
人类一眼就能看出这纯属扯淡。
而同样的数据,如果交给人类的社会学家分析,人类会怎么干?
人类会深入调研、询问当事人的感想,最后得出这样的结论:“不吃早餐和性**毫无关系。但只是因为不吃早餐的人,是生活无规律的一种重要表现形式。
而生活无规律的人,显然在挑选自己性伴侣方面也会更加随意而无责任心。所以,是生活无规律这种三观,同时导致了这个人有较大概率分别选择不吃早餐和随便挑选性伴侣。但不吃早餐和性**本身之间毫无因果关系——它们都是生活无规律这个‘因’导致的‘果’。”
拉尔森部长的这番检讨,算是打在了问题的根子上了。
一个太信赖人工智能的社会系统,面临了因果不分、只看数据的窘境。
这时候,一个全新的、没有历史记录可供借鉴的事物发生了,又该如何去预估其扰动呢?
“我们太信赖这些年来科技对稳定的加持了。以至于一个新扰动变量就把我们的繁荣彻底打回了原形。我们的敌人,估计也是智商高绝的存在,竟然对我们的软肋了解如此之深。”
蒙扎克总统悲哀地叹了口气,发现自己竟然短时间内没有办法解决。
敌人似乎完全知道该怎么跟一个人工智能帝国作战,如何专挑人类能胜任、而人工智能又相对薄弱的最后死角,狠狠地打击。