记者:人工智能虽然还不能全面超过人脑,但是就某些方面来说已经有了超越人脑的能力,前几年国际象棋世界冠军败给了计算机,就是一个很好的例子,那么,就是这些许许多多的方面加在一起,或者说在某一特定方面与人竞争,会不会出现对人不利的情况?
王志良:从计算机本身来说,在某项智能所产生在行为、功能上要强过人类,比如比人走的更快、耐力比人更强,在逻辑运算方面,电脑比人脑快等,这也正是人类发展机器人的原因,但就综合思维能力来说,离人类大脑差的很远,如果比较的话,目前最先进的机器人的智能、认知水平只有1岁多幼儿的水平,要想达到成人的智力水平还有很长的路走,还是很遥远的事。在当前的条件下人工智能很难跳出人类智能所及的范围,依然被人类所掌控,不会向电影中描写的那样威胁到人类整体,不过是在某些领域比人拥有更强大的计算能力而已,也就是有人说的“部分超越 、整体上不及”。另一方面,因为“部分超越”,而且自学习能力的逐步发展,可能会在应用过程中出现一些问题,这就要求我们未雨绸缪,制定准则,让它具有正能量,防止危险的发生。
三条“铁律”给机器人戴上“紧箍咒”
记者:您说的准则是什么?是不是“机器人三定律”?
王志良:是的,又叫“三原则”。早在上世纪40年代,美国著名科幻作家阿西莫夫就提出了著名的“机器人三定律”。即第一法则:机器人不得伤害人类,或袖手旁观坐视人类受到伤害;第二法则:机器人必须服从人类的一切命令,但不得违反第一定律;第三法则:机器人必须保护自身的安全,但不得违反第一、第二定律。从这类似“二十二条军规”的法则中看得出,阿西莫夫当年在写作的过程中一定经过了缜密的思考,因为这一带有预言性的小说之言,往后竟成了人工智能研究过程中一定要遵循的“铁律”。
记者:随着智能程度的提高,“机器人三定律”在未来的作用会越来越突出吧?日本和韩国人工智能技术很先进,同时十分重视对机器人的约束,韩国已经起草世界上第一份《机器人道德宪章》,以防止机器人“伤害”人类。更有人呼吁加强机器人伦理的建设,这个是否有必要?
王志良:因为机器人有了越来越多的 “过人之处”,社会应用越来越广,所以要确保智能机器人对人的安全性。这个也很好理解,即使普通机器的使用也要有一定的安全要求,更何况是智能的机器。一方面,由于自适应技术上的不成熟,而盲目推出某项机器人,导致在实际应用中不能适应环境变化,结果给人带来麻烦;另一方面,机器人则有可能被误用、滥用。最明显的例子就是无人机,这也是一种机器人,那么在用它进行作战轰炸的时候,它分不清目标是军队还是平民。这就有必要通过伦理也好、立法也好等手段进行规范和限制。这些都要求我们未雨绸缪,在“三定律”的基础上制定更具体准则,给机器人带上“紧箍咒”,让其具有正能量,防止危险的发生。
记者:这个“紧箍咒”应该怎样带?
王志良:我想主要包括两个方面,一是规范研发的行为,包括研制什么样的机器人,这种类型的机器人技术是否成熟,对其研制出来后是否有着较大的潜在危害进行考察,二是应用,包括管理已经生产出的机器人,其规范本身的智能行为,保证安全操作及不被滥用等。 本报记者/刘洪宇
专家档案
王志良 博士。北京科技大学物联网与电子信息系主任,教授,博士研究生导师。兼任中国人工智能学会常务理事,中国人工智能学会人工心理与人工情感专业委员会主任。研究领域包括人工心理与情感计算,个人机器人与数字人技术等。发表学术专著2部,学术论文70余篇,主持完成多项国家自然科学基金项目、国家攻关项目、教育部重点科研项目。
台达DOP-W系列提供10.4”/12”/15&rdqu…
JetNet 3005G · 5口全千兆RJ-45交换机 …
显示规格 一般规格 环境规格 结构规格 外形…
功能规格 …
功能规格 …
西门子SIMATIC S7-400PLC的主要特色为:极高的处理…