关于AlphaGo

最近被Zero刷屏了,我也来蹭热点。


既然大家都分析得差不多了,我就不分析,提一个问题。


无可置疑,AlphaGo战胜李世石,柯洁,无人能胜,是一个成功。


但是,为什么AlphaGo成功了,然而其他跟推理有关的任务没有?(假设,成功=达到顶尖人类水平)


比如说,OpenAI搞Dota,1V1下失败:被找出漏洞,当ATM刷。


比如说,Deepmind搞星际争霸,失败:打不过bot,连小任务(控制几个小兵消灭对方的小兵)都很困难。


比如说,MS搞程序生成,失败(或者更准确的说,根本没尝试更难的task):DeepCoder的确取得好成绩,但是无法scale到普通程序员。


又比如说,Visual Question Answering,Natrual Language Processing也不能在复杂的数据集上超越人类。


我拿这个问题问了很多人,得到各个不同的答案,先别跳到‘Go搜索空间很低,并且是Partial Information上去’,我们想想有什么理论,然后能如何测试这些理论。


答案0:Go空间很低。


按照这个答案,我们可以试试看把各个问题的空间再降低,差不多的时候就能超越人类了。

或者相反的,我们可以试试看39*39 Go棋盘,199*199 Go棋盘等等。。。


不过其实我挺不买账的,因为我可以很简单的给出一个搜索空间巨大,但是很简单的例子:ShakeSphere游戏。


ShakeSphere游戏很简单,你可以打a-z,还有空格,各类标点等,要求打出一个莎士比亚全集。


很明显这个空间巨大,并且可以任意大(打两次,打三次),如果加入del键还能到达无限搜索空间,但是这个问题任何一个编程入门的人都会解。


更何况,人类也怕大的搜索空间啊。


答案1:Partial Information疼


如果是这样,试试看给Go加上迷雾,或者给Dota, StarCraft去掉迷雾呢?


这也无法解释VQA,NLP等task。


答案2:Go能利用CNN架构,但是NLP,Dota,套CNN,LSTM没有太大意义,都不能很好的encode信息。


我觉得有点靠谱。如果是这样,我们是不是应该去更多研究GraphCNN,然后找LSTM的替代品?


答案3:推理需要搜索,而AlphaGo成功的把搜索外包出去,由神经网络做

答案4:越需要推理的task越离散,越不平滑,于是NN不喜欢,也不stable。搜索能变得stable一些。


Dota/StarCraft或许能通过imagination做搜索,但是什么叫‘在阅读理解上搜索’?Hmmm。。。


当然,很可能答案是多个上面解释的组合,或者是上面没有列举的。如果你有想法,评论/私信我!

文章被以下专栏收录
19 条评论
推荐阅读