本篇文章1645字,读完约4分钟

编者按:本文作者王川是一位投资者,中国科技大学三年级的校友,现居住在加州硅谷。他的个人微信号是9935070,而36氪是经授权从他的个人微信号公共号码investguru复制而来的。

一个

2016年1月底,人工智能研究领域发生了两件大事。

首先,1月24日,麻省理工学院教授、人工智能研究先驱马文·明斯基逝世,享年89岁。

三天后,谷歌在《自然》杂志上正式发表了一篇论文,宣布基于深度学习技术的计算机程序alphago在2015年10月的五场比赛中连续击败了欧洲冠军、职业乙级联赛冠军范辉。

这是第一次机器打败职业围棋手。自从1997年ibm Computer击败国际象棋世界冠军以来,已经过去了将近20年。

具有讽刺意味的是,明斯基教授从未对深度学习的概念持乐观态度。他在1969年出版了《感知器》,指出了神经网络技术(深度学习的前身)的局限性。这本书直接导致了近二十年来神经网络研究的长期低潮。

神经网络研究的历史是什么?

深度学习有多深?你学了多少分?

人工智能的研究方向之一是以所谓的“专家系统”为代表的自上而下的思维,它是由大量的“如果-那么”规则定义的。

人工神经网络标志着另一种自下而上的思维。

神经网络没有严格的形式定义。它的基本特征是试图模仿大脑神经元之间的信息传递和处理模式。

一个计算模型,要分成神经网络,通常需要大量的节点(也称为“神经元”)相互连接,并有两个特点:

每个神经元通过一个特定的输出函数(也称为激活函数)计算并处理神经元之间的信息传输强度,该强度具有来自其他相邻神经元的加权输入值。它是由所谓的加权值定义的,算法将不断地学习自己并调整这个加权值。在此基础上,神经网络的计算模型依赖于大量的数据进行训练,它还需要:

成本函数(Cost function):一种学习算法,用于定量评估根据特定输入值计算的输出结果离正确值有多远,以及结果有多可靠:它基于成本函数、自学习、纠错的结果,并尽快在神经元之间找到最佳加权值。用隔壁小明、小红和老王能听懂的语言解释一下。神经网络算法的核心是:计算、连接和评价

随着神经网络研究的不断变化,其计算特性逐渐与传统的生物神经元连接模型脱钩。

但其本质是:非线性、分布式、并行计算、自适应和自组织。

作为一种计算模型,神经网络最早是由科学家沃伦·麦卡洛克和沃尔特·皮茨在1943年提出的。

康奈尔大学的弗兰克·罗森布拉特(Frank Rosenblatt)教授于1957年提出了“感知器”,这是第一个具有自组织和自学习能力的数学模型,能够准确定义神经网络,是未来许多新的神经网络模型的鼻祖。

罗森布拉特乐观地预测,感知器最终可以“学习、决策和翻译语言。”感知器技术在20世纪60年代开始流行,美国海军资助了这项技术的研究,希望它能够“行走、说话、观看、阅读、自我复制,甚至有自我意识。”

罗森布拉特和明斯基实际上是相隔一个级别的高中校友。但是在20世纪60年代,两个人就感知器的问题进行了长时间的辩论。罗森布拉特认为传感器将无所不能,而明斯基认为其应用有限。

1969年,马文·明斯基和西摩·帕普特出版了一本新书:《感知器:计算几何导论》。这本书演示了感知器模型的两个关键问题:

首先,单层神经网络不能解决非线性分割问题。典型的例子是异或门和异或电路(通俗地说,异或门意味着如果两个输入是异性的,那么输出就是一个)。如果两个输入是同性恋,输出是零)

第二,更致命的问题是,当时的计算机完全不能完成神经网络模型所需的巨大计算。

在接下来的十年里,基于神经网络的人工智能研究进入了低潮,相关项目长期得不到政府资金的支持,这被称为行业的核冬天。

罗森布拉特本人并没有见证神经网络研究在未来的复兴。1971年他43岁生日时,他不幸在海上航行时死于一场事故。

(待续)

这篇文章由读者提交,并不代表36英寸的立场。如有转载,请注明出处

“读完这篇文章还不够吗?如果你也开始创业,希望你的项目被报道,请点击这里告诉我们!”

标题:关于深度学习 这可能是你最容易读进去的科普贴了(一)

地址:http://www.j4f2.com/ydbxw/8203.html