本篇文章3112字,读完约8分钟

在昨天的第二场人机大战中,阿尔法戈再次获胜,一些人工智能专家开始坦率地承认技术的发展超出了我们的想象。例如,在腾讯Live Room观看比赛的余凯说:“我的结论是电脑已经超越了人类。”。

然而,承认失败从来都不是人类的正常状态。失败后,有必要找出缺陷,重新开始。在不屈不挠的挑战者精神下,即使李世石在接下来的三盘中输了,中国还有柯杰;即使科杰被阿尔法戈超越,我们也不会承认阿尔法戈的智慧已经彻底粉碎了人类,因为它是我们自己创造的,因为它有客观条件连续赢下这两场比赛。

了解你自己和你自己,你就会赢。让我们从它的图形处理器开始。目光敏锐的人会发现,以前的ibm Deep Blue,无论它的计算能力有多强大,都不可能像alphago那样像人类下棋。这就像是看着新浪网的网友在感叹:“在实战中,当李石师在黑3的时候,他果断的抓住了下面的大官员。我以为阿尔法戈会攻击肚子里的白龙。谁知道阿尔法戈实际上有11本书,并被分为老虎。经过仔细的判断,黑棋的整体形势仍然占优势,而阿尔法戈的整体判断非常准确。”

AlphaGo连赢两局  该如何寻找它的破绽?

然而,从机器的角度来看,阿尔法戈不能被灵魂所引导,不管它看起来多么像地面上的人类。其中一些只是在强大的cpu集群的基础上增加了一个强大的gpu集群,这是依靠其深层学习能力使其行为像人的本质。至于为什么这次表现如此出色,根据王小川3月9日的声明,这一次谷歌使用了数万台机器,声称拥有1200台机器和2000个图形处理器,比深蓝的计算能力高出3万倍。

AlphaGo连赢两局  该如何寻找它的破绽?

许多人想知道,最初用来渲染游戏图像的gpu是如何被发现适合深度学习的。对此,图灵机器人的联合创始人杨澜告诉雷锋。

与为通用计算处理而设计的cpu相比,gpu更适合处理相同的并行计算。在正常情况下,gpu有更多的内核,在并行处理大量数据时其优势更加明显;深度学习需要大量的数据操作。典型的深层神经网络有许多节点,每个节点都有许多连接。它需要在学习过程中不断更新和迭代。在这种情况下,gpu有更多的优势;

如果你想举一个形象的例子,根据小智机器人何勇的说法,

在串行架构下,计算长度为1000的两个向量的相加需要1000次,gpu可以完成一次计算。

普通人都知道,gpu的全称是“图形处理器”,它不应该是这场人机战争的主角。然而,由于其在大规模并行计算环境中的出色性能,它显然可以加速需要大量张量计算的深度学习,反而使其成为这场人机战争中一颗耀眼的新星。雷锋还有一件有趣的事。com是,当余凯解释昨天的人机战争时,他提到“阿尔法戈似乎能够掌握局势。因为卷积神经网络用于深度学习,也就是说,采用许多滤波器并扫描棋盘,它可能需要数百个滤波器并获得分层的理解,并在其上进行另一层扫描。这种机制与人眼的视觉神经网络完全相同。这里很聪明。神经网络是一种模拟整个大脑视觉神经网络的机制。”

AlphaGo连赢两局  该如何寻找它的破绽?

与其他面部特征相比,人脸上的一双眼睛有助于快速掌握全局,但这种卷积神经网络没有摄像头或雷达扫描。仅仅使用一双没有眼睛的“眼睛”(基于模拟整个人脑的视觉神经网络机制)就给了阿尔法戈比赛中展示的“全局视图”,这似乎是一件非常有趣的事情。

事实上,阿尔法戈的计算能力比人类强,它的“思维能力”也正在赶上人类。然而,这场人机战争的初衷是,我们确信它的“神经网络”和我们真正的神经网络之间存在差距,所以我们一直在测试。它和真正的神经网络有什么区别?

杨钊:

其规模远小于人脑。人脑中有800多亿个神经元,整体性能比人脑稍慢

功耗问题;

概括能力(从他人那里得出推论的能力);

何勇:

目前,科学界对脑结构的认知仍然非常有限,而目前的人工神经网络是基于这种有限认知的高度简化的人脑模型,因此与人脑相比还有很大差距。举一个简单的例子,它的“智力”的迁移离人脑很远。例如,一个可以打败人类棋手的人工智能很难学会如何理解一篇简单的文章。

Esprit首席技术官周博士从alphago的主动性和被动性两方面分析了这个问题。与人类相比,阿尔法戈仍有许多方面需要改进。目前,深度学习大多采用监督学习、非监督学习。半监督学习和自主学习能力有待加强;目前,深度学习主要是从以往的棋类游戏中学习,当人类逐渐熟悉其棋类游戏时,其弱点就会暴露出来,因此需要加强其创新和推广能力。

AlphaGo连赢两局  该如何寻找它的破绽?

如何发现它的缺陷在正式比赛之前,一些人已经注意到阿尔法戈在kgs(一个网络go战斗平台)上阅读了近16万个游戏中人类行走的3000多万步,但是这种简单的复制能力已经不能满足阿尔法戈快速进化的需要。Mobvoi的nlp工程师jason说,这只是“基于在人类象棋游戏中学习到的这种sl策略网络,然后使用强化学习方法通过与自己对抗来进一步优化策略网络。”

AlphaGo连赢两局  该如何寻找它的破绽?

从李世石在前两场比赛中的“变态棋风”表现,我们可以推断出李世石已经意识到阿尔法戈已经相当了解自己的棋风,他正在尽力改变,而不是职业棋手认为他是“被动战斗”的看法,因为我们相信,以围棋冠军的智商,他绝对知道找出对手缺点的重要性,即使对手不是人类。

至于如何确保你在与自己对弈的过程中学到一些东西(不要下同一盘棋),业余5段赵治勋说

在该算法中,这被称为加强学习,通过玩游戏来提高棋力。我研究了这个算法,认为它是可信和有用的。一般来说,人不能复制,但机器可以。阿尔法围棋的两个副本,0号和1号,互不干扰。这种学习是有用的,但是人们不能忙,所以他们不能学习东西。

只有当你了解自己和你自己,你才能赢。在这场比赛中,当你知道阿尔法戈擅长记棋谱+加强学习+计算能力的时候,如果人类按照武侠小说中的破招思维,应该怎么做?

从风格上看,杨钊说,在3: 1时,他尽可能多地使用冷招,进入了一种孤独的境地;2 .在早期阶段利用人脑的整体情况建立优势,否则在后期搜索空时它会变小,而计算机会有更多的优势;3.创新象棋博弈理论,使其无效(非常困难)。

从心理学角度来说,何勇说,人工智能的优势在于计算准确,不像人类棋手那样受生理和心理因素的影响而出错。缺点是显而易见的,比如缺乏整体控制,人工智能的移动方式更多的是基于当前象棋游戏中的短期判断。因此,如果你和擅长全球布局的大师比赛,获胜的可能性相对较低。

周博士说,从本质上讲,机器智能还处于发展的初级阶段,机器凭借其巨大的存储容量和快速的逻辑计算能力已经获得了一定的优势。同时,它通过人工智能专家的设计具有一定的学习能力,但与人类相比仍有很大差距,人类不需要大惊小怪。目前人类只需要更多地了解机器智能的本质,了解机器在实际游戏中的优缺点。我相信人类很快就会找到方法来充分发挥人类的优势并战胜机器。

AlphaGo连赢两局  该如何寻找它的破绽?

总结:也许李石师下一个输了,也许柯杰被阿尔法戈超越了,也许游戏类别中的游戏人类在未来将不再是机器的对手,但我们仍然觉得最大的缺陷是弄清楚阿尔法戈的原理,就像ibm的深蓝(Deep Blue),这让我们知道了它。

目前,互联网上分析阿尔法戈的文章是一个很大的推动,因为它很难理解,这引起了人们的敬畏或恐惧,但如果我们简单地看一下。

1997年,ibm Deep Blue凭借计算能力和暴力超越了人类在国际象棋中的局限。

2009年,一位名叫辛顿的老人首次向从事语音识别的学者介绍了他研究了近30年的深层神经网络。第二年,语音识别领域出现了重大突破。

结果,深度学习网络开始扩展到人工智能的各个领域,更具体的变体如cnn和rnn开始出现。

直到2016年3月,它还被用来和人类下棋。

如何简单描述深度网络在围棋中的应用?

“我的理解是,两个深层网络工具,策略网络+价值网络,被用来通过评估每一步的好处来简化蒙特卡洛树(ai框架)的搜索空,并实现最佳和时间消耗之间的平衡。”杨钊说道。

标题:AlphaGo连赢两局 该如何寻找它的破绽?

地址:http://www.j4f2.com/ydbxw/8910.html