52PCGame

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 1557|回复: 9

[转帖] Deepmind AlphaStar 如何战胜人类职业玩家

[复制链接]

1333

主题

7万

帖子

10万

积分

伯爵

如梦如花月 若即若离花

Rank: 13Rank: 13Rank: 13

积分
103049
威望
102999
金圆券
39763 PB
小红花
340
臭鸡蛋
3
法币
633 FB

水兵勋章水勇勋章水军勋章水将勋章水王勋章新兵勋章设计师勋章优秀新人勋章优秀会员勋章春节元旦勋章帝国黄马甲

发表于 2019-1-28 00:31 | 显示全部楼层 |阅读模式
来自  人工智能学家

来源:德先生
作者:朱圆恒,唐振韬,李伟凡,赵冬斌
北京时间2019年1月25日2时,DeepMind在伦敦向世界展示了他们的最新成果——星际争霸2人工智能AlphaStar[1] 。
图1. DeepMind AlphaStar挑战星际人类职业玩家直播画面
比赛共11局,直播展示的是去年12月期间AlphaStar挑战Liquid team职业玩家TLO和MANA的部分比赛录像,分别有5局。最后一局为AlphaStar对战MaNa的现场直播。比赛采用固定天梯比赛地图、神族对抗神族的形式。
图2. 比赛地图、游戏版本、对战种族信息
结果自然是AlphaStar大比分碾压式胜利,在2018年12月10日以5:0击败TLO,12月19日以5:0击败MaNa。但是当天现场表演赛上AlphaStar却不敌MaNa。最终,AlphaStar取得了10-1的绝佳成绩,堪称世界上第一个击败星际争霸顶级职业玩家的人工智能。

来自群组: 帝國復興黨
[发帖际遇]: 含烟 在网吧通宵,花了 2 PB 金圆券. 幸运榜 / 衰神榜
如梦如花月 若即若离花

点击孙子兵法的问题
回复

使用道具 举报

1333

主题

7万

帖子

10万

积分

伯爵

如梦如花月 若即若离花

Rank: 13Rank: 13Rank: 13

积分
103049
威望
102999
金圆券
39763 PB
小红花
340
臭鸡蛋
3
法币
633 FB

水兵勋章水勇勋章水军勋章水将勋章水王勋章新兵勋章设计师勋章优秀新人勋章优秀会员勋章春节元旦勋章帝国黄马甲

 楼主| 发表于 2019-1-28 00:32 | 显示全部楼层

星际争霸
星际争霸是由暴雪娱乐公司开发的一款经典即时战略游戏。与国际象棋、Atari游戏、围棋不同,星际争霸具有以下几个难点:
1、 博弈——星际争霸具有丰富的策略博弈过程,没有单一的最佳策略。因此,智能体需要不断的探索,并根据实际情况谨慎选择对局策略。
2、 非完全信息——战争迷雾和镜头限制使玩家不能实时掌握全场局面信息和迷雾中的对手策略。
3、 长期规划——与国际象棋和围棋等不同,星际争霸的因果关系并不是实时的,早期不起眼的失误可能会在关键时刻暴露。
4、 实时决策——星际争霸的玩家随着时间的推移不断的根据实时情况进行决策动作。
5、 巨大动作空间——必须实时控制不同区域下的数十个单元和建筑物,并且可以组成数百个不同的操作集合。因此由小决策形成的可能组合动作空间巨大。
6、 三种不同种族——不同的种族的宏机制对智能体的泛化能力提出挑战。
图3. 直播中组织者分析Atari,围棋,星际三者在信息获取程度、玩家数量、动作空间、动作次数的不同,难度呈现逐渐提升
正因为这些困难与未知因素,星际争霸不仅成为风靡世界的电子竞技,也同时是对人工智能巨大的挑战。
评估AlphaStar战力
星际争霸中包含神族、人族、虫族三种选择,不同种族有不同的作战单位、生产机制和科技机制,因而各个种族间存在战术制衡。为了降低任务训练所需时间,并避免不同种族间客观存在的不平衡性,AlphaStar以神族对阵神族为特定训练场景,固定使用天梯地图-CatalystLE为训练和对决地图。
面对虫族职业玩家TLO和排名更加靠前的神族职业玩家MaNa的轮番挑战,AlphaStar凭借近乎无解的追猎微观操作和凤凰技能单位的配合,能在绝大多数人类玩家都认为严重受到克制的兵种不朽下,在正面战场上反败为胜扭转战局,并最终兵不血刃的横扫人类职业玩家,取得了星际争霸AI当前最佳的表现水平,在实时战略游戏上取得了里程碑式的意义。
图4. 追猎者相互克制兵种关系
AlphaStar是如何训练的?
AlphaStar的行为是由一个深度神经网络产生。网络的输入来自游戏原始的接口数据,包括单位以及它们的属性,输出则是一组指令,这些指令构成了游戏的可行动作。网络的具体结构包括处理单位信息的变换器(transformer),深度LSTM核(deep LSTM core),基于指针网络(pointer network)的自动回归策略头(auto-regressive policy head),和一个集中式价值评估基准(centralised value baseline)。这些组成元件是目前最先进的人工智能方法之一。DeepMind将这些技术组合在一起,有信心为机器学习领域中普遍存在的一些问题,包括长期序列建模、大规模输出空间如翻译、语言建模、视觉表示等,提供一种通用的结构。
AlphaStar权重的训练同样是使用新型的多智能体学习算法。研究者首先是使用暴雪发布的人类匿名对战数据,对网络权重进行监督训练,通过模仿来学习星际天梯上人类玩家的微观、宏观策略。这种模拟人类玩家的方式让初始的智能体能够以95%的胜率打败星际内置电脑AI精英模式(相当于人类玩家黄金级别水平)。
在这初始化之后,DeepMind使用了一种全新的思路进一步提升智能体的水平。星际本身是一种不完全信息的博弈问题,策略空间非常巨大,几乎不可能像围棋那样通过树搜索的方式确定一种或几种胜率最大的下棋方式。一种星际策略总是会被别一种策略克制,关键是如何找到最接近纳什均衡的智能体。为此,DeepMind设计了一种智能体联盟(league)的概念,将初始化后每一代训练的智能体都放到这个联盟中。新一代的智能体需要要和整个联盟中的其它智能体相互对抗,通过强化学习训练新智能体的网络权重。这样智能体在训练过程中会持续不断地探索策略空间中各种可能的作战策略,同时也不会将过去已经学到的策略遗忘掉。
[发帖际遇]: 含烟 参与械斗被治安处罚,交罚款 9 PB 金圆券. 幸运榜 / 衰神榜
如梦如花月 若即若离花

点击孙子兵法的问题
回复

使用道具 举报

1333

主题

7万

帖子

10万

积分

伯爵

如梦如花月 若即若离花

Rank: 13Rank: 13Rank: 13

积分
103049
威望
102999
金圆券
39763 PB
小红花
340
臭鸡蛋
3
法币
633 FB

水兵勋章水勇勋章水军勋章水将勋章水王勋章新兵勋章设计师勋章优秀新人勋章优秀会员勋章春节元旦勋章帝国黄马甲

 楼主| 发表于 2019-1-28 00:32 | 显示全部楼层

图5. 在使用人类数据初始化智能体后,DeepMind构建了一个智能体联盟,在每一代都将强化学习得到的智能体放入这个联盟中,每个智能体要和联盟中其它的智能体做对抗学习。最终从联盟中水平靠前的几个智能体中选取一个和MaNa对抗。
这种思路最早出现在DeepMind另一项工作——种群强化学习(population-based reinforcement learning)。这与AlphaGo明显的不同在于:AlphaGo让当前智能体与历史智能体对抗,然后只对当前智能体的权重做强化学习训练;而种群强化学习则是让整个种群内的智能体相互对抗,根据结果每个智能体都要进行学习,从而不只是最强的智能体得到了提升,它的所有可能的对手都有所提升,整个种群都变得更加智能。
图6. 随着联盟中对智能体的训练,整个联盟的最强水平和整体水平都得到了提升,最终超过了人类玩家MaNa和TLO(神族)在MMR下的评分。图中纵坐标给出的是Match Making Rate (MMR),是一种对玩家水平的有效评估,图中横线对应暴雪对线上玩家水平的分级。
此外DeepMind还宣称,每个智能体不只是简单地和联盟其它智能体相互对抗学习,而是有针对性、有目的性的学习。例如通过内在激励的调整,有些智能体只考虑打败某种类型的竞争对手,而另一些智能体则是要尽可能地击败种群的大部分智能体。这就需要在整体训练过程中不断地调整每个智能体的目标。
权重的训练使用了新型的强化学习——离策略执行-评价(off-policy actor-critic)算法,结合了经验回放(experience replay)、自我模仿学习(self-imitation learning)、和策略蒸馏(policy distillation)。这些技术保证了训练的稳定性和有效性。
图7. 黑点代表了和MaNa对战所选择的智能体。大图给出了该智能体在训练过程中策略的变化情况。其它彩色点代表了不同策略对应的智能体,并显示出了不同时期不同策略被选中和MaNa智能体对抗的概率。尺寸越大,被选中概率越大。左下图给出了不同训练时期MaNa智能体出兵组成变化。


[发帖际遇]: 含烟被鸟粪砸中,损失了 7 PB 金圆券. 幸运榜 / 衰神榜
如梦如花月 若即若离花

点击孙子兵法的问题
回复

使用道具 举报

1333

主题

7万

帖子

10万

积分

伯爵

如梦如花月 若即若离花

Rank: 13Rank: 13Rank: 13

积分
103049
威望
102999
金圆券
39763 PB
小红花
340
臭鸡蛋
3
法币
633 FB

水兵勋章水勇勋章水军勋章水将勋章水王勋章新兵勋章设计师勋章优秀新人勋章优秀会员勋章春节元旦勋章帝国黄马甲

 楼主| 发表于 2019-1-28 00:33 | 显示全部楼层

硬件部分
为了训练AlphaStar,DeepMind调动了Google的v3云TPU。构建了高度可拓展的分布式训练方式,支持数千个智能体群并行训练。整个AlphaStar智能体联盟训练了14天,每个智能体调用了16个TPU。在训练期间,每个智能体经历了相当于正常人类要玩200年的游戏时长。最终的AlphaStar智能体集成了联盟当中最有效策略的组合,并且可以在单块桌面级GPU上运行。
AlphaStar是如何玩游戏的?
在比赛时AlphaStar通过其界面直接与星际争霸游戏引擎交互,获得地图上可以观察的所有信息,也可称为全局信息。它并没有输入移动视角的视野图像。不过对比赛录像的分析表明AlphaStar隐式地学到了注意力集中机制。平均而言,AlphaStar的动作指令每分钟会在前线和运营之间切换30次,这与MANA和TLO等人类玩家的切屏行为非常相近。
图8. 与MaNa第二场比赛中AlphaStar的神经网络可视化。从智能体的角度显示了它对游戏的理解,左下角起为游戏的输入,神经网络的激活可视化,智能体的主要操作位置,局势评估,生产建造。
在12月份的比赛之后,DeepMind开发了第二版的AlphaStar。加入了移动视角机制,使其只能感知当前屏幕上的视野信息,并且动作位置仅限于当前区域。结果表明AlphaStar同样能在移动视角输入下迅速提升性能,紧紧追赶全局输入的性能,最终结果几乎一致。
DeepMind一共训练了两种智能体,一个使用原始全局输入,一个使用移动视角输入。它们都首先使用人类数据监督学习初始化,然后使用上述强化学习过程和第一版学好的智能体联盟对抗。使用使用视角输入的智能体几乎与全局输入的一样强大。在DeepMind的内部排行榜上超过7000MMR(远高于MaNa的MMR)。然而在直播比赛当中,MaNa战胜了移动视角的智能体。DeepMind分析认为该智能体只训练了七天的时间,还没有达到它的最高水平,希望在不久的将来会对收敛结果做进一步评测。
图9. 以整个地图信息为输入和以移动视角为输入两种智能体训练的提升效果比较。两者都是不完全信息,存在战争迷雾遮挡敌方单位的情况。只不过前者是将所有可视单位的信息放在全局地图上作为输入,后者是只将玩家局部视野内的单位信息作为输入。因此后者需要智能体在游戏过程中不断调整局部视野的范围,确保有用信息的输入。
众多观战者另一个关心的问题是AlphaStar的平均每分钟操作数(Actions Per Minute, APM)。计算机可以利用强大的计算能力,在短时间集中大量的操作,远超过人类的极限能力。就算是顶级职业玩家,APM也仅有数百,远远低于现有的对战机器人。如自动悍马2000,可以独立控制每个单元,APM维持在数万以上。
在TLO和MANA的比赛当中,AlphaStar的平均APM为280,尽管其操作更为精确,但APM明显低于大部分职业玩家。同时,AlphaStar从观察到行动之间存在350毫秒的延迟。
图10. 对战时AlphaStar,TLO(神族),MaNa三者的APM比较
综上,DeepMind认为AlphaStar对MaNa和TLO的胜利依靠的是卓越的宏观机制和微观战略决策,而不是单纯的靠闪烁追猎Blink。


如梦如花月 若即若离花

点击孙子兵法的问题
回复

使用道具 举报

1333

主题

7万

帖子

10万

积分

伯爵

如梦如花月 若即若离花

Rank: 13Rank: 13Rank: 13

积分
103049
威望
102999
金圆券
39763 PB
小红花
340
臭鸡蛋
3
法币
633 FB

水兵勋章水勇勋章水军勋章水将勋章水王勋章新兵勋章设计师勋章优秀新人勋章优秀会员勋章春节元旦勋章帝国黄马甲

 楼主| 发表于 2019-1-28 00:35 | 显示全部楼层

AlphaStar优缺点分析
AlphaStar优势
1) 战胜职业玩家
AlphaStar的成功在星际争霸游戏乃至整个实时战略游戏具有里程碑式的意义,不仅在于第一次正式击败人类职业玩家,更在于这套深度强化学习框架在不完全依赖于规则脚本的基础上,通过监督学习、模仿训练、种群提升、和后期强化学习来提升智能体的作战能力。这套研究思路和方法一样适用于其他的实时战略游戏。
2) 微观操作卓越
即使在兵种对抗处于劣势的情况下,AlphaStar依靠精准的微操决策控制能力,仍然可以在形势不利的局面下反败为胜,化逆境为顺境。表现了实时战略游戏的一种虽然简单粗暴但较为直接的解决方式,证明了深度强化学习探索到较优可行解的能力。
3) 利用地形优势的感知能力
在战争局势不利的情况下,准确作出战略撤退,并分散撤退到具有较高地势的关口四周。利用峡口因素精确作出包夹的动作行为,形成对敌方的封锁及包抄,从而为局势逆转提供条件,具备较强的地形感知能力和利用性。
AlphaStar不足
1) 硬件资源需求高
单个智能体训练需要16个V3版本(最新版,运算次数为V2版本的8倍)的云TPU,以Alpha League训练完成的10类智能体作为保守估计,至少需要上百块TPU作为硬件计算支持,带来的硬件基础成本使普通开发者难以承受。
2) 鲁棒性仍不足
在最后一场直播中可见,由于AlphaStar无法根据敌人骚扰意图分散安排兵力部署防守本方基地,致使被人类玩家戏耍来回拉扯全军大部队,从而始终无法对人类玩家发起进攻,使人类玩家有足够时间生产大量的反追猎兵种(不朽),最终导致比赛的失利。
3) 地图场景较为简单
本次使用CatalstLE为两人小地图,没有多余的随机起始点,因而AlphaStar不需要派侦察部队侦察敌人确定位置,减小了环境的不确定性,简化了整体的不完全信息性。并且小地图使智能体偏向于使用RUSH类战术,使探索策略的复杂性显著降低。
4) 微操APM峰值过高
不同于普通人类玩家,AlphaStar的APM不具有冗余重复性,每次都为有效操作(EPM)。普通人类玩家的EPM平均大约只有80左右,只有在交战过程中短暂的20秒到30秒左右的时间达到EPM 200以上。但AlphaStar在使用近乎无解的闪烁追猎战术EPM估计能达到1000左右,显然对于人类玩家并不公平。
5) 后期表现未知
根据此次比赛公开的录像表现,AlphaStar大部分时刻采取追猎者攻击、骚扰或防御等动作,尚未观察到其他更为高级的兵种操作,并且没有出现满人口满科技树的情况,因而AlphaStar的后期表现能力存在较大疑问。


如梦如花月 若即若离花

点击孙子兵法的问题
回复

使用道具 举报

1333

主题

7万

帖子

10万

积分

伯爵

如梦如花月 若即若离花

Rank: 13Rank: 13Rank: 13

积分
103049
威望
102999
金圆券
39763 PB
小红花
340
臭鸡蛋
3
法币
633 FB

水兵勋章水勇勋章水军勋章水将勋章水王勋章新兵勋章设计师勋章优秀新人勋章优秀会员勋章春节元旦勋章帝国黄马甲

 楼主| 发表于 2019-1-28 00:39 | 显示全部楼层
不知道不良信息在哪里?只能截图了

0000000000000000000000.png 111111111111111111.png 2222222222222222.png

[发帖际遇]: 含烟抢银行被抓,损失了 3 PB 金圆券. 幸运榜 / 衰神榜
如梦如花月 若即若离花

点击孙子兵法的问题
回复

使用道具 举报

1

主题

34

帖子

70

积分

下士

Rank: 2Rank: 2

积分
70
威望
70
金圆券
528 PB
小红花
0
臭鸡蛋
0
法币
0 FB
发表于 2019-1-30 13:12 | 显示全部楼层
这个的确不错
回复

使用道具 举报

1

主题

34

帖子

66

积分

下士

Rank: 2Rank: 2

积分
66
威望
66
金圆券
201 PB
小红花
0
臭鸡蛋
0
法币
0 FB
发表于 2019-1-30 22:04 | 显示全部楼层
AI搞运营不错的
回复

使用道具 举报

3

主题

193

帖子

356

积分

中尉

Rank: 7Rank: 7Rank: 7

积分
356
威望
356
金圆券
589 PB
小红花
0
臭鸡蛋
0
法币
1 FB
发表于 2019-1-31 13:24 | 显示全部楼层
本帖最后由 打个比方 于 2019-1-31 13:35 编辑

这个ai不是一开始我们设想的那种那么智能的吧,只会用一张图而且只能神族内战,别说换一个对手种族了,怕不是换一张图的神族内战依旧要从零开始学起,这点和人差别挺大的,人如果学回了一个种族的运营起码换一张图不会连农民怎么拉都不会了
回复

使用道具 举报

头像被屏蔽

157

主题

799

帖子

3516

积分

禁止发言

积分
3516
威望
3516
金圆券
13109 PB
小红花
0
臭鸡蛋
0
法币
0 FB
发表于 2023-8-6 10:44 | 显示全部楼层

这个的确不错
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|52PCGame

GMT+8, 2024-11-22 03:07 , Processed in 0.064559 second(s), 19 queries , Redis On.

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表