『壹』 BP神经网络的发展历史
人工神经网络早期的研究工作应追溯至上世纪40年代。下面以时间顺序,以著名的人物或某一方面突出的研究成果为线索,简要介绍人工神经网络的发展历史。
1943年,心理学家W·Mcculloch和数理逻辑学家W·Pitts在分析、总结神经元基本特性的基础上首先提出神经元的数学模型。此模型沿用至今,并且直接影响着这一领域研究的进展。因而,他们两人可称为人工神经网络研究的先驱。
1945年冯·诺依曼领导的设计小组试制成功存储程序式电子计算机,标志着电子计算机时代的开始。1948年,他在研究工作中比较了人脑结构与存储程序式计算机的根本区别,提出了以简单神经元构成的再生自动机网络结构。但是,由于指令存储式计算机技术的发展非常迅速,迫使他放弃了神经网络研究的新途径,继续投身于指令存储式计算机技术的研究,并在此领域作出了巨大贡献。虽然,冯·诺依曼的名字是与普通计算机联系在一起的,但他也是人工神经网络研究的先驱之一。
50年代末,F·Rosenblatt设计制作了“感知机”,它是一种多层的神经网络。这项工作首次把人工神经网络的研究从理论探讨付诸工程实践。当时,世界上许多实验室仿效制作感知机,分别应用于文字识别、声音识别、声纳信号识别以及学习记忆问题的研究。然而,这次人工神经网络的研究高潮未能持续很久,许多人陆续放弃了这方面的研究工作,这是因为当时数字计算机的发展处于全盛时期,许多人误以为数字计算机可以解决人工智能、模式识别、专家系统等方面的一切问题,使感知机的工作得不到重视;其次,当时的电子技术工艺水平比较落后,主要的元件是电子管或晶体管,利用它们制作的神经网络体积庞大,价格昂贵,要制作在规模上与真实的神经网络相似是完全不可能的;另外,在1968年一本名为《感知机》的著作中指出线性感知机功能是有限的,它不能解决如异或这样的基本问题,而且多层网络还不能找到有效的计算方法,这些论点促使大批研究人员对于人工神经网络的前景失去信心。60年代末期,人工神经网络的研究进入了低潮。
另外,在60年代初期,Widrow提出了自适应线性元件网络,这是一种连续取值的线性加权求和阈值网络。后来,在此基础上发展了非线性多层自适应网络。当时,这些工作虽未标出神经网络的名称,而实际上就是一种人工神经网络模型。
随着人们对感知机兴趣的衰退,神经网络的研究沉寂了相当长的时间。80年代初期,模拟与数字混合的超大规模集成电路制作技术提高到新的水平,完全付诸实用化,此外,数字计算机的发展在若干应用领域遇到困难。这一背景预示,向人工神经网络寻求出路的时机已经成熟。美国的物理学家Hopfield于1982年和1984年在美国科学院院刊上发表了两篇关于人工神经网络研究的论文,引起了巨大的反响。人们重新认识到神经网络的威力以及付诸应用的现实性。随即,一大批学者和研究人员围绕着 Hopfield提出的方法展开了进一步的工作,形成了80年代中期以来人工神经网络的研究热潮。
『贰』 人工智能计算机的发展历史是怎样的呢
【1950-1956年是人工智能的诞生年】
图灵测试1950
Dartmouth 会议1956
(1956年夏季,以麦卡赛、明斯基、罗切斯特和申农等为首的一批有远见卓识的年轻科学家在一起聚会,共同研究和探讨用机器模拟智能的一系列有关问题,并首次提出了“人工智能”这一术语,它标志着“人工智能”这门新兴学科的正式诞生。)
【1956-1974 年是人工智能的黄金年】
第一个人工智能程序LT逻辑理论家1958(西蒙和纽维尔)
LISP编程语言1958(约翰麦卡锡)
用于机器翻译的语义网1960(马斯特曼和剑桥大学同事)
模式识别-第一个机器学习论文发表(1963)
Dendral 专家系统1965
基于规则的Mycin医学诊断程序1974
【1974-1980年是人工智能第一个冬天】
人工智能:综合调查1973(来特希尔)
项目失败,列强削减科研经费
【1980-1987年是人工智能繁荣期】
AAAI在斯坦福大学召开第一届全国大会1980
日本启动第五代计算机用于知识处理1982
决策树模型带动机器学习复苏1980中期
ANN及多层神经网络1980中期
【1987-1993年是人工智能第二个冬天】
Lisp机市场崩溃1987
列强再次取消科研经费1988
专家系统滑翔谷底1993
日本第五代机退场1990年代
『叁』 人工智能的发展史是什么
【1950-1956年是人工智能的诞生年】
图灵测试1950
Dartmouth 会议1956
(1956年夏季,以麦卡赛、明斯基、罗切斯特和申农等为首的一批有远见卓识的年轻科学家在一起聚会,共同研究和探讨用机器模拟智能的一系列有关问题,并首次提出了“人工智能”这一术语,它标志着“人工智能”这门新兴学科的正式诞生。)
【1956-1974 年是人工智能的黄金年】
第一个人工智能程序LT逻辑理论家1958(西蒙和纽维尔)
LISP编程语言1958(约翰麦卡锡)
用于机器翻译的语义网1960(马斯特曼和剑桥大学同事)
模式识别-第一个机器学习论文发表(1963)
Dendral 专家系统1965
基于规则的Mycin医学诊断程序1974
【1974-1980年是人工智能第一个冬天】
人工智能:综合调查1973(来特希尔)
项目失败,列强削减科研经费
【1980-1987年是人工智能繁荣期】
AAAI在斯坦福大学召开第一届全国大会1980
日本启动第五代计算机用于知识处理1982
决策树模型带动机器学习复苏1980中期
ANN及多层神经网络1980中期
【1987-1993年是人工智能第二个冬天】
Lisp机市场崩溃1987
列强再次取消科研经费1988
专家系统滑翔谷底1993
日本第五代机退场1990年代
【1993-现在突破期】
IBM深蓝战胜卡斯帕罗夫1997
斯坦福大学Stanley 赢得无人驾驶汽车挑战赛2005
深度学习论文发表2006
IBM的沃森机器人问答比赛夺魁2011
谷歌启动谷歌大脑2011
苹果公司的Siri上线2012
微软通用实时翻译系统2012
微软Cortana 上线2014
网络度秘2015
IBM发布truenorth芯片2014
阿尔法狗打败人类棋手2016
『肆』 神经网络计算机的发展历程
早在40年代,McCulloch和Pitts就已开始了以神经元作为逻辑器件的研究。60年代,Rosenblatt提出版了模拟学习和识别功权能的“感知机”模型,其构造和规则曾轰动一时,但终因此类机器严格的局限性而很快冷落下来。到1982年,Hopfield提出了一种新的理论模型。这一模型简明地反映了大脑神经系统的分布式记忆存储、内容寻址、联想以及局部细胞损坏不灵敏等特性。与此同时,神经网络在解决“推销员旅行”问题、语音识别、音乐片断的学习创作、英语智能读音系统等方面,都取得了令人鼓舞的结果。因此人工神经网络的研究热潮在80年代初期又重新兴起,成为多学科共同关注的跨学科新领域。不同学科研究神经网络的方法虽不尽相同,但目的都是为了探索大脑智能的机制和实现智能计算机。人工神经网络研究的进展,使研制神经网络计算机的历史任务落到了现代高科技的面前。这是社会对智能计算机的迫切需要。
『伍』 神经网络的研究内容
神经网抄络的研究内容相当广泛,袭反映了多学科交叉技术领域的特点。主要的研究工作集中在以下几个方面: 在理论模型研究的基础上构作具体的神经网络模型,以实现计算机模拟或准备制作硬件,包括网络学习算法的研究。这方面的工作也称为技术模型研究。
神经网络用到的算法就是向量乘法,并且广泛采用符号函数及其各种逼近。并行、容错、可以硬件实现以及自我学习特性,是神经网络的几个基本优点,也是神经网络计算方法与传统方法的区别所在。 在网络模型与算法研究的基础上,利用人工神经网络组成实际的应用系统,例如,完成某种信号处理或模式识别的功能、构作专家系统、制成机器人、复杂系统控制等等。
纵观当代新兴科学技术的发展历史,人类在征服宇宙空间、基本粒子,生命起源等科学技术领域的进程中历经了崎岖不平的道路。我们也会看到,探索人脑功能和神经网络的研究将伴随着重重困难的克服而日新月异。
『陆』 脉冲神经网络的历史
Alan Lloyd Hodgkin和Andrew Huxley在1952年提出了来第一个脉冲神源经网络模型,这个模型描述了动作电位是怎样产生并传播的。但是,脉冲并不是在神经元之间直接传播的,它需要在突触间隙间交换一种叫“神经递质”的化学物质。这种生物体的复杂性和可变性导致了许多不同的神经元模型。
从信息论的观点来看,找到一种可以解释脉冲,也就是动作电位的模型是个问题。所以,神经科学的一个基本问题就是确定神经元是否通过时间编码来交流。时间编码表明单一的神经元可以取代上百个S型隐藏层节点。
『柒』 什么是神经网络,举例说明神经网络的应用
我想这可能是你想要的神经网络吧!
什么是神经网络:
人工神经网络(Artificial Neural Networks,简写为ANNs)也简称为神经网络(NNs)或称作连接模型(Connection Model),它是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。
神经网络的应用:
应用
在网络模型与算法研究的基础上,利用人工神经网络组成实际的应用系统,例如,完成某种信号处理或模式识别的功能、构作专家系统、制成机器人、复杂系统控制等等。
纵观当代新兴科学技术的发展历史,人类在征服宇宙空间、基本粒子,生命起源等科学技术领域的进程中历经了崎岖不平的道路。我们也会看到,探索人脑功能和神经网络的研究将伴随着重重困难的克服而日新月异。
神经网络的研究内容相当广泛,反映了多学科交叉技术领域的特点。主要的研究工作集中在以下几个方面:
生物原型
从生理学、心理学、解剖学、脑科学、病理学等方面研究神经细胞、神经网络、神经系统的生物原型结构及其功能机理。
建立模型
根据生物原型的研究,建立神经元、神经网络的理论模型。其中包括概念模型、知识模型、物理化学模型、数学模型等。
算法
在理论模型研究的基础上构作具体的神经网络模型,以实现计算机模拟或准备制作硬件,包括网络学习算法的研究。这方面的工作也称为技术模型研究。
神经网络用到的算法就是向量乘法,并且广泛采用符号函数及其各种逼近。并行、容错、可以硬件实现以及自我学习特性,是神经网络的几个基本优点,也是神经网络计算方法与传统方法的区别所在。
『捌』 人工智能的具体发展历史是什么
【1950-1956年是人工智能的诞生年】
图灵测试1950
Dartmouth 会议1956
(1956年夏季,以麦卡赛、明斯基、罗切斯特和申农等为首的一批有远见卓识的年轻科学家在一起聚会,共同研究和探讨用机器模拟智能的一系列有关问题,并首次提出了“人工智能”这一术语,它标志着“人工智能”这门新兴学科的正式诞生。)
【1956-1974 年是人工智能的黄金年】
第一个人工智能程序LT逻辑理论家1958(西蒙和纽维尔)
LISP编程语言1958(约翰麦卡锡)
用于机器翻译的语义网1960(马斯特曼和剑桥大学同事)
模式识别-第一个机器学习论文发表(1963)
Dendral 专家系统1965
基于规则的Mycin医学诊断程序1974
【1974-1980年是人工智能第一个冬天】
人工智能:综合调查1973(来特希尔)
项目失败,列强削减科研经费
【1980-1987年是人工智能繁荣期】
AAAI在斯坦福大学召开第一届全国大会1980
日本启动第五代计算机用于知识处理1982
决策树模型带动机器学习复苏1980中期
ANN及多层神经网络1980中期
【1987-1993年是人工智能第二个冬天】
Lisp机市场崩溃1987
列强再次取消科研经费1988
专家系统滑翔谷底1993
日本第五代机退场1990年代
【1993-现在突破期】
IBM深蓝战胜卡斯帕罗夫1997
斯坦福大学Stanley 赢得无人驾驶汽车挑战赛2005
深度学习论文发表2006
IBM的沃森机器人问答比赛夺魁2011
谷歌启动谷歌大脑2011
苹果公司的Siri上线2012
微软通用实时翻译系统2012
微软Cortana 上线2014
网络度秘2015
IBM发布truenorth芯片2014
阿尔法狗打败人类棋手2016
『玖』 机器学习的发展史
机器学习是人工智能研究较为年轻的分支,它的发展过程大体上可分为4个时期。
第一阶段是在20世纪50年代中叶到60年代中叶,属于热烈时期。
第二阶段是在20世纪60年代中叶至70年代中叶,被称为机器学习的冷静时期。
第三阶段是从20世纪70年代中叶至80年代中叶,称为复兴时期。
机器学习的最新阶段始于1986年。
机器学习进入新阶段的重要表现在下列诸方面:
(1) 机器学习已成为新的边缘学科并在高校形成一门课程。它综合应用心理学、生物学和神经生理学以及数学、自动化和计算机科学形成机器学习理论基础。
(2) 结合各种学习方法,取长补短的多种形式的集成学习系统研究正在兴起。特别是连接学习符号学习的耦合可以更好地解决连续性信号处理中知识与技能的获取与求精问题而受到重视。
(3) 机器学习与人工智能各种基础问题的统一性观点正在形成。例如学习与问题求解结合进行、知识表达便于学习的观点产生了通用智能系统SOAR的组块学习。类比学习与问题求解结合的基于案例方法已成为经验学习的重要方向。
(4) 各种学习方法的应用范围不断扩大,一部分已形成商品。归纳学习的知识获取工具已在诊断分类型专家系统中广泛使用。连接学习在声图文识别中占优势。分析学习已用于设计综合型专家系统。遗传算法与强化学习在工程控制中有较好的应用前景。与符号系统耦合的神经网络连接学习将在企业的智能管理与智能机器人运动规划中发挥作用。
(5) 与机器学习有关的学术活动空前活跃。国际上除每年一次的机器学习研讨会外,还有计算机学习理论会议以及遗传算法会议。
『拾』 人工神经网络的发展历史
1943年,心理学家W.S.McCulloch和数理逻辑学家W.Pitts建立了神经网络和数学模型,称为MP模型。他们通过MP模型提出了神经元的形式化数学描述和网络结构方法,证明了单个神经元能执行逻辑功能,从而开创了人工神经网络研究的时代。1949年,心理学家提出了突触联系强度可变的设想。60年代,人工神经网络得到了进一步发展,更完善的神经网络模型被提出,其中包括感知器和自适应线性元件等。M.Minsky等仔细分析了以感知器为代表的神经网络系统的功能及局限后,于1969年出版了《Perceptron》一书,指出感知器不能解决高阶谓词问题。他们的论点极大地影响了神经网络的研究,加之当时串行计算机和人工智能所取得的成就,掩盖了发展新型计算机和人工智能新途径的必要性和迫切性,使人工神经网络的研究处于低潮。在此期间,一些人工神经网络的研究者仍然致力于这一研究,提出了适应谐振理论(ART网)、自组织映射、认知机网络,同时进行了神经网络数学理论的研究。以上研究为神经网络的研究和发展奠定了基础。1982年,美国加州工学院物理学家J.J.Hopfield提出了Hopfield神经网格模型,引入了“计算能量”概念,给出了网络稳定性判断。 1984年,他又提出了连续时间Hopfield神经网络模型,为神经计算机的研究做了开拓性的工作,开创了神经网络用于联想记忆和优化计算的新途径,有力地推动了神经网络的研究,1985年,又有学者提出了波耳兹曼模型,在学习中采用统计热力学模拟退火技术,保证整个系统趋于全局稳定点。1986年进行认知微观结构地研究,提出了并行分布处理的理论。1986年,Rumelhart, Hinton, Williams发展了BP算法。Rumelhart和McClelland出版了《Parallel distribution processing: explorations in the microstructures of cognition》。迄今,BP算法已被用于解决大量实际问题。1988年,Linsker对感知机网络提出了新的自组织理论,并在Shanon信息论的基础上形成了最大互信息理论,从而点燃了基于NN的信息应用理论的光芒。1988年,Broomhead和Lowe用径向基函数(Radial basis function, RBF)提出分层网络的设计方法,从而将NN的设计与数值分析和线性适应滤波相挂钩。90年代初,Vapnik等提出了支持向量机(Support vector machines, SVM)和VC(Vapnik-Chervonenkis)维数的概念。人工神经网络的研究受到了各个发达国家的重视,美国国会通过决议将1990年1月5日开始的十年定为“脑的十年”,国际研究组织号召它的成员国将“脑的十年”变为全球行为。在日本的“真实世界计算(RWC)”项目中,人工智能的研究成了一个重要的组成部分。