7.2.3混沌现象 如果状态N(t)的轨迹在某个确定的范围内运动 但既不重复,又不能停下来,状态变化为无穷 多个,而轨迹也不能发散到无穷远,这种现象 称为混沌( chaos)。 在出现混沌的情况下,系统输出变化为无穷多个, 并且随时间推移不能趋向稳定,但又不发散
7.2.3 混沌现象 如果状态N(t)的轨迹在某个确定的范围内运动, 但既不重复,又不能停下来,状态变化为无穷 多个,而轨迹也不能发散到无穷远,这种现象 称为混沌(chaos)。 在出现混沌的情况下,系统输出变化为无穷多个, 并且随时间推移不能趋向稳定,但又不发散
7.2.4状态轨迹发散 如果状态N(t)的轨迹随时间一直延伸到无穷远, 此时状态发散,系统的输出也发散 在人工神经网络中,由于输入、输出激活函数上 个有界函数,虽然状态N(是发散的,但其 输出A(还是稳定的,而A(t)的稳定反过来 又限制了状态的发散。 般非线性人工神经网络中发散现象是不会发生 的,除非神经元的输入输出激活函数是线性的
7.2.4 状态轨迹发散 如果状态N(t)的轨迹随时间一直延伸到无穷远, 此时状态发散,系统的输出也发散。 在人工神经网络中,由于输入、输出激活函数上 一个有界函数,虽然状态N(t)是发散的,但其 输出A(t)还是稳定的,而A(t)的稳定反过来 又限制了状态的发散。 一般非线性人工神经网络中发散现象是不会发生 的,除非神经元的输入输出激活函数是线性的
目前的人工神经网络是利用第一种情况即稳定的专门轨 迹来解决某些问题的 如果把系统的稳定点视做一个记忆的话,那么从初始状 态朝这个稳定点移动的过程就是寻找该记忆的过程。 状态的初始值可以认为是给定的有关该记忆的部分信息, 状态N(t)移动的过程,是从部分信息去寻找全部信息, 这就是联想记忆的过程 如果把系统的稳定点考虑为一个能量函数的极小点,在 状态空间中,从初始状态N(t)=N(t+t),最后到达N。 若N为稳定点,则可以看作是N把N(t)吸引了过去, 在N(t)时能量比较大,而吸引到N时能量已为极小了
目前的人工神经网络是利用第一种情况即稳定的专门轨 迹来解决某些问题的。 如果把系统的稳定点视做一个记忆的话,那么从初始状 态朝这个稳定点移动的过程就是寻找该记忆的过程。 状态的初始值可以认为是给定的有关该记忆的部分信息, 状态N(t)移动的过程,是从部分信息去寻找全部信息, 这就是联想记忆的过程。 如果把系统的稳定点考虑为一个能量函数的极小点,在 状态空间中,从初始状态N(t0 )=N(t0+t),最后到达N* 。 若N*为稳定点,则可以看作是N*把N(t0 )吸引了过去, 在N(t0 )时能量比较大,而吸引到N*时能量已为极小了
根据这个道理,可以把这个能量的极小点作为 个优化目标函数的极小点,把状态变化的过程 看成是优化某一个目标函数的过程 因此反馈网络的状态移动的过程实际上是一种计 算联想记忆或优化的过程。它的解并不需要真 的去计算,只需要去形成一类反馈神经网络, 适当地讨论其权重值w;,使其初始输入A(t)向 稳定吸引子状态的移动就可以达到这个目的。 霍普菲尔德网络是利用稳定吸引子来对信息进行 储存的,利用从初始状态到稳定吸引子的运行 过程来实现对信息的联想存取的
根据这个道理,可以把这个能量的极小点作为一 个优化目标函数的极小点,把状态变化的过程 看成是优化某一个目标函数的过程。 因此反馈网络的状态移动的过程实际上是一种计 算联想记忆或优化的过程。它的解并不需要真 的去计算,只需要去形成一类反馈神经网络, 适当地讨论其权重值wij,使其初始输入A(t0 )向 稳定吸引子状态的移动就可以达到这个目的。 霍普菲尔德网络是利用稳定吸引子来对信息进行 储存的,利用从初始状态到稳定吸引子的运行 过程来实现对信息的联想存取的