那一天,海因里希最得意的机器人用血淋淋的现实,残酷无比地告诉海因里希:
它其实根本不懂人类、根本不懂生命对人类的价值!而他,也其实根本不懂它!
于是,看着好像在求表扬一样乖巧地跑回自己身边、自己曾最得意的、满身他最爱之人淋漓刺目鲜血的机器人,他直接崩溃了。
海因里希从此整日以酒精麻醉自己,更声名狼藉,被当做开发人工智能会遭诅咒的最好证明,饱受丧妻之痛和恶意批评的折磨,能熬过来堪称奇迹。
且哪怕他现在终于重新振作起来,也坚决拒绝让计算机进行自我学习。
这里面不仅有情感上的厌恶,也有理论和现实共同带来的恐惧。
通过人教导出的人工智能,和通过自我学习培养出的人工智能,成长过程看起来大同小异。
后者好像不过是把提取数据、建立函数等工作交给计算机自己去完成,且计算机完成的也好像真远比人高效。
问题是,正是因为计算机完成得实在太高效了,人根本跟不上,渐渐就会越来越搞不清:
计算机到底提取出什么数据?又到底用哪些数据来重新定义人类提出的概念?到底是怎么理解人类的概念?它自己定义的概念到底和人类的概念有多大差异?
人类只能用结果来大概判断,计算机的理解和人类的理解间到底有多大偏差,非常模糊、暗藏危机。
还拿教计算机理解微笑一事来举例说明。
由于计算机对微笑的理解不是人类直接定义、传授的,要搞清计算机到底理不理解微笑,又理解到什么程度,人类只能拿出一大堆同时包含微笑、非微笑表情的立体头像,让计算机先去识别,后通过准确率大小来大概判断计算机的理解程度。
可纵使计算机百分百地识别出了微笑和非微笑,就能说计算机百分百明白微笑是怎么回事吗?
别忘了,计算机的结构和人脑非常不同,根本没脑波,就决定了人的理解和计算机的理解必然存在差异。
进而,生命的概念、以及生命对人类到底有多重要等,都是一样的。
若忽视本质上的差异,只凭概率达标就武断地认为计算机能理解人类,并把事情完全交给计算机,那计算机有一天一定会做出让许多人类后悔莫及、痛苦不已的事。
计算机不理解人类,本质上没恶念,却或又比有恶念的恶人更恐怖。
没有恶念也代表没法预防,且它又有足够作