AlphaGo的自学能力更强了

  • A+
发布日期:2017年05月31日 所属分类:新知

谷歌(Google)电脑程序AlphaGo在三局比赛的第二局战胜世界排名第一的围棋选手,意味着人工智能算法在这种极其复杂的棋盘游戏领域大获全胜。

中国围棋冠军柯洁周四投子认负,这场对弈中电脑和人脑都以创新的战术给观众带来了惊喜。

AlphaGo的自学能力更强了

尽管古老的围棋规则很少,但其复杂性意味着电脑击败世界冠军曾被认为是难以想象的。然而,由谷歌旗下的DeepMind公司开发的AlphaGo去年击败了韩国围棋大师李世石(Lee Se-dol)。

谷歌将AlphaGo带到中国的目的是,挑战柯洁并在为期5天的赛事中在中国专家和政府官员面前展示其在人工智能领域的突破。自其搜索引擎7年前在中国被屏蔽以来,这是谷歌与中国政府合作举办的规模最大的活动。

DeepMind联合创始人杰米斯·哈萨比斯(Demis Hassabis)解释道,今年的版本名为AlphaGo Master,比去年的版本更为强大。

AlphaGo Master能够从与自己对弈中学习,而不是需要从人类比赛中学习。其效率也更高,需要的计算能力是上一个版本的10分之一。

“主要的创新是AlphaGo已变成自己的老师,”AlphaGo首席程序员戴夫·西尔弗(Dave Silver)表示,“这令其能够用更一般化的方式学习,意味着不仅棋艺增强,而且还能带来更一般化的应用。”

AlphaGo Master的硬件也更好了。它使用“张量处理单元”,这是谷歌为用于人工智能程序而设计的微芯片。据谷歌称,“张量处理单元”每单位能量的性能优于常规芯片最多80倍。

柯洁也开始使用从观看AlphaGo比赛中学到的战术,表明人类也在模仿机器。

尽管IBM的“深蓝”(Deep Blue)计算机在1997年击败了国际象棋冠军加里·卡斯帕罗夫(Garry Kasparov),但要在攻克围棋领域取得进展更为困难。

与国际象棋不同,围棋不可能通过利用纯粹的计算能力计算出全部可能的走法来轻易取胜。AlphaGo采用的学习模式是模仿神经元在人类大脑中的工作原理。

DeepMind现在正致力于开发程序来玩需要更复杂视觉输入的游戏,例如暴雪娱乐(Blizzard Entertainment)的在线策略游戏《星际争霸》(Starcraft)。(来源/FT中文网)

weinxin
致知微信公众号
扫描(或长按识别)左侧二维码,订阅致知公众号。点击下方多彩标签,继续浏览你感兴趣的专题。

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: