没有人工智能只有“狗”智能

人工智能正以无比迅捷的速度成为科技圈最热的话题,有越来越多的人讨论人工智能与人类之间的问题。著名物理学家霍金就发出过警告,人工智能未来必将威胁到人类的生存,引发很多人的恐慌。但其实霍金等人的警告是有很重要的前提的,更重要的是,真正的人工智能其实离我们还非常遥远。

在2015年大连的达沃斯会议的人工智能论坛上,主持人抛出了这样三个问题:如果你作为嫌疑人出现在法庭上,你希望法官是人类还是人工智能;如果你得了一种威胁你生命的疾病,你希望做出诊断的是人类还是人工智能;如果国家之间爆发战争,你希望机器人做士兵(人工智能驱动的)还是人类做士兵?

没有人工智能

对于这三个问题,无论是现场的观众,还是之前网上征集的答案,关于前两个问题,都有比较大的争议,有人或许因为医患关系不佳信任机器人医生,也有人更相信“老大夫”式的人类智慧。有人相信自己和人类法官更能说得清楚自己没有犯罪,有人则对机器人的客观公正更有把握。唯独对第三个问题,希望机器人做士兵还是人类做士兵,答案却很一致:所有人都认为还是机器人做士兵可能更好一些。

这三个答案其实已经体现了人类对人工智能(或者说机器人)的态度和定位,在公众的内心里,其实根本没有所谓人工智能,只有类似“狗智能”或者说是“警犬式的智能”。人工智能的定义有很多,但是共性的描述都包括,让机器拥有人类一般的智能、思考能力、自我认知能力和智慧的进化能力。不过我们能看到的情况是,现在所有关于人工智能的产业化研究,都没有涉及到这样的人工智能。

这一方面是因为技术水平还没有达到这个层次,让机器掌握自我进化的智慧多少超出了我们现在掌握的科学水平。另一方面,正如刚才所提及的,虽然大家每天都在说人工智能,但是没有人希望或者相信有人工智能,也就是如人一般的智能,或者说能够取代人的智能。现在所有在研发的人工智能(或者说机器人),多数只是作为人类的一个补充存在。这些机器人所从事的工作,或体现的作用,只是人类自己不希望或者不愿意做的事情,而非真的将机器人作为另外一种智能去承认。

比如工业生产线机器人,它解决人力成本越来越高的问题,做的是人类不再喜欢做重复性劳动的工作;矿井的探测机器人的研发,是因为工作环境太过恶劣,无人愿意从事的缘故。士兵机器人,更是因为人类将自身生命看得非常宝贵,所以愿意齐刷刷选择机器人上战场。虽然也有一些场合,机器起到了主体作用,比如科学运算,但这和人类选择狗作为警犬的道理如出一辙,我们选择狗作为警犬,不是因为狗有多智能(尽管狗在动物界也算聪明),只是因为狗的鼻子比人类灵敏(如同机器的纯数学运算速度快于人脑),这只能说明机器的天然优势,而并非人类承认人工智能可以和人的智能平起平坐。正如人不会因为狗的鼻子比人类灵敏,大家就会承认“狗权”能等于,甚至大于人权。

既然现状如此,为何开篇提到的霍金等人会对人工智能如此疑虑呢?其实,霍金对人工智能的担忧是有特定指向的。在包括霍金、哲学家乔姆斯基和马斯克(特斯拉创始人)等专家和意见领袖的公开信中,他们对人工智能的担忧主要体现在人工智能用于“自主性武器”,通俗的说就是机器士兵。这个有指向性的担忧并非完全没有道理,我们在达沃斯论坛也看到了,公众实际上对机器士兵是持欢迎态度的。但是,人们只看了机器士兵可以替人类卖命,却忽视了它可能存在的威胁。机器士兵,只会根据设定好的逻辑进行攻击判断,不像人类一样会考虑自身安危。让我们假设一下,如果把一个大国的核武器发动按钮由机器士兵来保管,那么1962年的古巴导弹危机大概不会持续13天,而只是13小时,甚至13分钟之内,一瞬间核武器就已经在美苏之间发射了。因为机器做决策,只有零和一,没有妥协性的中间地带。

尽管机器士兵的威胁对人类确实存在,我们也必须看到,这种人工智能产生的威胁,和日常在科幻电影里看到的人工智能的威胁,完全不是一回事。在电影《终结者》中,天网就是一种机器士兵,它对人类的围剿是有主动性的,天网认为人类是一种威胁,所以发动了对人类的战争。而在《黑客帝国》中,机器则因为人类决定消灭机器人这一族群而发动了一场反侵略战争。但霍金眼中的威胁,并不属于以上的情况。自主性武器所带来的威胁,更像是一种放大后的意外。自主武器因为误判了战场情况,发动了不该发动的大规模杀伤武器,导致整个人类面临威胁,和人工智能判断人类本身是应该消除的敌对势力完全是两种情况。虽然这两种情况都可能造成人类生存危机,但是缘由是完全不同的。一种是主动为之,另一种是城门失火殃及池鱼。

  人工智能没有机会长大

既然人工智能具备智慧产生的威胁才是真正的威胁,这种境地离我们是否也已经不远?可以说,在目前产业界只是将人工智能定义为“警犬智能”的立场下,这种真正的人工智能威胁的距离还相当遥远。原因在于,人工智能得不到像人类一样的成长环境。

让我们回顾一下人类的成长过程吧,这实际上是一个充满了犯错和纠错的发展史。我们碰翻了开水,知道了烫的伤害,我们不小心跌倒,知道了失去平衡的痛苦滋味。如果开车出现了交通事故,则知道了注意力不集中,或者酒精对人脑带来的损害。这样不断地犯错,也是一个不断学习的过程,也是人类对世界的认知不断进步的过程。所以,几乎所有的法治国家,都对未成年人的错误持宽容态度,甚至未成年人犯罪,还会网开一面,就是对“人犯错”的正面认识。

可是人类对人类的态度,不会出现在人类对机器身上。根据联合国的一项数据统计,全世界每年因交通事故死亡的人数超过了100万。这些事故中,固然有很多是天气和机械失灵的原因,但是相当一部分是驾驶员(人类)操作不当导致。但是我们并没有因此取缔汽车这一交通工具,而是试图以更严格的法律和驾驶培训来解决这样的问题。可如果我们用机器换位思考一下,情况截然不同。现在谷歌等公司正在道路上测试的无人驾驶汽车,不用说发生人类驾驶员可能犯的百万次错误,如果仅仅每年因为人工智能误判发生10起致人死亡的事故,相信也足以让交通管理部门叫停谷歌这一测试。人类对自身是宽容的,而对待机器(异类)是严苛的。正是这种严苛,虽然科学家和技术公司对人工智能的研究如火如荼,但是如果不能让人工智能得到人类一样的纠错机会,不能获得人类一样的成长环境,人工智能很难真正“长大成人”。

当然,人工既然是计算机产生的智慧,或许也可以利用虚拟现实作为一种训练方法,正如《黑客帝国》中,尼奥也在一个小型的“Matrix”中学会了功夫。但现实世界的变量远远不是虚拟世界能够去完全模拟的。没有一个“良好”的成长环境,出生在一个犯错就会被“砍头”的教育环境里,我们很难相信真正的人工智能能够通过机器学习实现自我成长。在很长一段时间里,相信我们见不到人工智能,只能看到有一技之长的“狗智能”。

  人工智能的未来

那么,“狗智能”是否就是人类所能创造的机器智慧的最高境界呢?答案也不会那么简单。这里有两个变数存在。首先,每个科幻电影里都有一个疯狂的科学家,现实世界当中,很难说不会发生这样的情况。在正常的学术环境(伦理要求)下,人工智能无法得到的成长环境,在一些极端环境下,是可能出现的。不说战争,和人类较为遥远的外太空探索就可能让科学家和政府作出一定程度上的让步。

另一方面,虽然像人工一样的智能很难出现,但是人工+智能却不那么遥远。手机和可穿戴设备的到来,让人与机器之间的距离前所未有的贴近。而接下来植入人体的智能硬件,则让人工+智能(机器)成为现实。虽然,人工+智能的初衷,是让机器作为人的助手,帮助人提高效率,做决策的还是人,但是未见得机器智能不会反客为主。因为是人工+智能,人表面上掌握了决策的最终决定权,所以在这个外衣的掩护下,机器犯了错,也不一定归罪于机器,正如人类驾驶员开车出了事故,不能去责怪汽车一样。这种宽容,可能让机器实现了某种程度的在真实世界成长的机会,而不是犯错后就扼杀在摇篮里。这个进程,取决于碳基生命(人类)和硅基生命(机器)之间结合的速度。

这样看来,人工智能的威胁确实未能完全避免。不过退一步思考,人工智能真的对人类产生威胁,应该不会比人类对人类自身的威胁更大。让我们再搬出这个定义吧:人工智能,是指像人类一样的智能。所以人工智能,归根结底模仿的是人类的言行。人类危险,机器自然也可能危险。现在机器对人类文本学习的理解能力的技术进步速度是相当快的,其实这就是比较危险的一件事,因为机器可以读到的人类史,就是一部战争不断的冲突史。上行下效之下,一个刚读完二战史的人工智能,将如何看待闪电战和原子弹在战争中的作用呢?

所以人工智能是否会产生威胁,实际上与“智能”本身无关,而仅与“人工”有关。《三体》一书中,三体人说,我们 “消灭你,与你无关”。而如果有一天人工智能真的有了威胁,那恐怕是,消灭你,是因为你教我这么干。

相关域名:zhihuigou.cn(智慧狗、智慧购物)  询价请联系站长qq

原创文章,作者:智慧城市网,如若转载,请注明出处:https://www.zhihuichengshi.cn/planning/difangxinwen/22345.html