智慧不是知识的堆积,具有海量的数据库和闪电般的快速检索并不能绕过知识的堆积不等于智慧这个障碍。面对同样的数据,不同的人会做出不同的反应,人工智能要超越的是谁的智能?另外,人类智能本身也在不断演进,人类智能的一大特点就是会有阶跃性的突变,每一个科技发明和人文概念都是人类智能突变的结果,理解和认识这种突变机制本身就需要人类智能的一个突变。人工智能要复制和超越人类智能,就像兔子要吃悬吊在鼻子前的胡萝卜一样。
如果人工智能极限是一个哲学问题,在实践中是否可以不去理睬它,直接用越来越快的计算机挑战人工智能极限呢?换句话说,哲学问题对人工智能实践没有实质性的指导意义呢?自动控制理论比计算机和人工智能先行,很多东西可以借鉴。早期控制理论使用输入-输出模型,但60年代卡尔曼提出状态空间理论,用状态方程建立全新的模型,更加深刻地揭示了动态系统的本质,并且把线性/非线性、定常/时变、确定性/随机、单变量/多变量理论放到统一的架构之下。同时,状态空间也第一次触及可控性概念。
如果用舞龙作比方,龙头和龙尾好比系统的输出和输入,龙身里的每一个人好比系统的状态变量。龙尾的人可以通过搭在前一个人身上的手传递控制信息,最终使得龙头摆到规定的位置。但如果龙身中间有几个人偷懒,手没有搭在前一个人的身上,那这个“断链”再往龙头方向的所有状态就不可控,不管后面的人如何软硬兼施。换句话说,对于不完全可控的系统,控制系统设计得多精巧都不可能控制所有的状态。可控性是一个跨不过去的坎。人工智能的极限是什么?这个问题最终是绕不过去的。这不是茶余饭后啜牙花的谈资,而是和永动机一样,关系到有意义的科学突破还是无意义的冲撞南墙。
就更具体的自学习系统而言,自动控制理论里也有比照,这就是早就出现的模型参考尤其是自校正控制。这可以说是入门级的自学习系统。这些概念在60、70年代就提出,也曾经使人们大为振奋。自动控制理论的一个关键难点在于拥有形式合适而且精确可靠的动态数学模型,但对于大多数工业过程,这个模型难以获得,所以早期的控制理论常常停留在空谈的层次。自校正控制把在线辨识和最优控制相结合,一面实时校正数学模型,一面根据最新更新的数学模型实时调整控制策略,这不解决了缺乏数学模型的问题了吗?实际上没有,这只是把问题的复杂性转移到另一个层面上去了。
在线辨识需要过程处于动态中,死水一潭是无法辨识过程特性的,只有牛鬼蛇神纷纷出动,才能辨识出过程的真实特性。但辨识的目的是形成最优控制,也就是最终把牛鬼蛇神统统镇压下去。但是牛鬼蛇神都镇压之后,在线辨识就要瞪大眼睛无事生非,没有牛鬼蛇神也草木皆兵造出几个来,导致模型失真,真有牛鬼蛇神再露头的时候,就容易发生过程失控。这个问题有很多就事论事的办法,但没有能从本质上解决的,最终导致又一个美好理论丧生于实践的岩壁脚下。
人工智能的自学习是否会遇上同样的问题,但可以肯定的是,自学习在学习实际过程的时候,本身也需要人们对自学习的理论和应用进行学习。这就像自动控制避免了学习简单劳动的必要,但增加了理解、掌握和支持自动控制硬件、软件和控制算法的要求。对于复杂过程的控制,最终取决于对过程本质的实质性理解,而不是用投机取巧的数学方法绕过学习关。自学习不仅不能降低人类学习的要求,实际上还增加了人类学习的要求,因为自学习的成功取决于工具的正确应用,这只有来自对实际过程的深入理解。另一方面,对自学习和工具本身的学习成为额外的学习要求。这就是自学习不可能成为懒人福音的道理。
数学救不了懒人还有另一个例子。传统数学模型有一个公式,形式可以很复杂,可以有很多方程联立,可以是代数方程和微分方程的混合,并加入随机等其他复杂性因素,但这种传统数学模型能够描述的现象受到具体方程形式的限制。在研究人类智能的过程中,人们提出神经元的数学模型。这是一个简化的模型,但把很多这样的简化模型组网连接起来,可以描述高度复杂的现象。然而,神经元网络本身依然在数学或者计算上相对简单。神经元网络出现后,很多人以为这是终极数学模型,只要有足够多的数据,包括进所有的变量,从此可以把世界上所有复杂现象一网打尽。
台达DOP-W系列提供10.4”/12”/15&rdqu…
JetNet 3005G · 5口全千兆RJ-45交换机 …
显示规格 一般规格 环境规格 结构规格 外形…
功能规格 …
功能规格 …
西门子SIMATIC S7-400PLC的主要特色为:极高的处理…