字体:大 中 小
护眼
关灯
上一页
目录
下一页
分卷阅读94 (第3/4页)
里,获知了他想要的答案。 AlphaGo团队在蒙特卡洛树搜索上加装了策略网络和价值网络两个模块。 这两个模块让AlphaGo不是单纯地计算,而是深度学习、模仿人类! 策略网络,顾名思义是决策下一步走子。AlphaGo会检索KCS围棋服务器上所有真人在线对弈,进而判断:如果是人类棋手处于它当前的位置,他最有可能走哪一步?它只对那些解进行计算!然后,它就自我对弈上千万局,看看这一步是否真的是最优解! 遵循策略网络,蒙特卡洛树搜索的树宽将大量减少,但深度依旧存在。上千万局博弈,每一局都走到最后,依旧是可怕的计算量。 计算深度的减少用上了价值网络。它以AlphaGo产生的大量自我博弈作为样本,检索这种棋形在历史上的胜率,把好坏、优劣变成了一个概率问题!那么每一回,AlphaGo计算到一定深度就可以停下来,直接估算当前胜率! 经验的本质是概率,从本质上来说,以概率判断局面的AlphaGo,就是以“经验判断现状”的人类大脑运行模式!AlphaGo的走子,也完全遵循了人类棋手的思维历程——大量背谱,吸取经验,自我思考,判断局势……然后估算其后若干步的棋局导向! 只是这个棋手,等于千百年来千千万万个棋手的经验总和,并且,完全不会出错罢了。 第二天,乌镇再传出消息:魏柯第二局,依旧惨败! 魏柯意识到细棋是没有机会的,一开始就主动展开攻势,趁着布局阶段想要对AlphaGo进行压制。他意识到AlphaGo
上一页
目录
下一页