2018年3月4日星期日

中国无人车第一案剧情突变:景驰投入百度Apollo怀抱,下周或和解收场

李根 发自 凹非寺 量子位 报道 | 公众号 QbitAI

相逢的人还会再相逢。

上周二,被百度"追杀"66天后,景驰CEO王劲离职一事终于天下皆知

而现在,从百度出走的创业团队,又带着景驰回到百度的"怀抱"。

今日官方消息:景驰科技正式加入百度Apollo开放平台,成为Apollo合作伙伴。未来双方将展开合作,积极推动自动驾驶行业发展。

对于这次不寻常的握手,双方都没说太多,既没有背景铺陈,也缺乏合作细节。

嗯,态度大于行动。

退一步海阔天空。

来看下双方仅有的官方表态:

景驰科技CEO韩旭表示:"景驰自创业之初就坚信,中国将最早实现无人驾驶,Apollo平台的开源开放创新模式为行业树立了典范,也进一步印证了这个观点。景驰很高兴加入百度Apollo,在Apollo的助力下跑出更快的速度。"

(量子位之前独家报道韩旭接任了CEO一职)

百度副总裁、智能驾驶事业群组总经理李震宇表示:"百度Apollo开放平台全面拥抱自动驾驶创业新势力,希望通过开源开放的创新模式,降低自动驾驶行业门槛,成为景驰等优秀创业公司的'创新加速器',让中国的技术跑赢世界。"

除此之外,双方没有更多发声。

所以百度和景驰的恩怨剧情,就此迎来ending?

恐怕还没有,至少还有一件事有待完成,那就是双方纠葛中的核心事件:知识产权官司。

小道消息:双方庭外和解,下周百度做出撤诉决定。

看来王劲是换取天下太平的筹码。也不知是他拒绝接受如此结局主动离职,还是他的离开成为了百度景驰合作的前提,甚至是传言中资本舍弃了王劲……

总之,景驰创始人王劲彻底出局了。

至此,百度基本算是得偿所愿,景驰也应该可以顺利生存发展下去。

以及百度还给未来,设立了一个警示牌。

所以,我们说这是一场标志性的"胜利"。

景驰"去王劲化"进程结束

"小孩子才分对错,成年人只看利弊。"

商场上更是如此。

量子位之前已经报道过,景驰不光是表面上更换CEO、投向百度,而且实际上也在逐步推进和王劲之间的"切割"。

好消息是,之前景驰在国内注册的公司,法人或者股东都没有王劲的名字,可能是因为王劲目前并非中国籍等方面的缘故。

不过,王劲在香港注册的JingChi HongKong Limited,在景驰体系中控制着最多的公司。在之前的报告中,量子位也提到了这是唯一需要变动的部分。

但上次报道景驰更换CEO时,景驰香港的变化文件还没公开。现在,这份文件已经正式披露出来,跟量子位之前猜测的一致:景驰香港唯一的董事王劲,现在也变更成韩旭。

变更的确切时间:2月12日。

现在,王劲和景驰唯之间不多的牵连,可能要算景驰美国公司。景驰CFO吕庆去年3月29日在加州注册的这家公司,目前CEO仍然写着王劲。

上次,量子位还在总结景驰公司体系时注意到,王劲去年1月30日在北京注册了一家新公司,和景驰的发音很像,名叫劲辰。

可能至少从1月开始,王劲已经已经在为接下来的变动做准备了。

不管怎么说,现在景驰公司体系的"去王劲化"进程,现在已经基本结束了。照例,我们还是放上一张图,总结一下。

Apollo"家族"

尽管李彦宏否认All in AI是他的战略,但百度此前一直都在高喊类似的口号。

其中,百度AI战略最具代表性的项目,就是Apollo。

目前Apollo已经是一个合作伙伴众多的计划。其中既包括北汽、一汽、金龙、奇瑞、戴姆勒、福特、车和家、蔚来、威马等新老车厂。也包括这个产业链上的一众关键角色,例如博世、德国大陆、德尔福、采埃孚、Velodyne、恩智浦、英特尔等。

以及,一些专门从事自动驾驶技术的开发商。

例如:地平线机器人、Momenta。

其中,地平线机器人的创始人余凯,此前担任百度研究院副院长;地平线机器人联合创始人黄畅,此前担任百度深度学习实验室主任架构师。

这个情况和景驰有相似之处。

而Momenta的创始团队,跟百度之间的交集不多。不过合作看起来反而更深。在Apollo官网提供的合作案例中,Momenta目前被放在第一个,合作事项是:Apollo1.5定车道昼夜自动驾驶方案。但也没有更多细节。

官网最下方有个"加入Apollo"的申请按钮。

点击之后,需要回答你是谁、你从哪里来、以及:

你想合作什么?

百度 VS. 景驰

最后,一起回顾一下这一季百度景驰的剧情始末吧。

2017年3月1日,百度官宣:把自动驾驶事业部等三合一,成立智能驾驶事业群组(IDG),交由到任不久的"二号人物"陆奇负责。同时百度高级副总裁、原自动驾驶事业部总经理王劲,"内部休息调整"。

当天,王劲官方资料被百度官网"下架"。

2017年3月27日,王劲公开宣布将离职百度,正式投身无人车创业。

2017年3月29日,王劲的新公司名"景驰科技"曝光。

2017年4月3日,景驰在硅谷完成注册。

2017年5月12日,景驰宣布完成首次封闭道路无人驾驶路测。

2017年6月18日,景驰获加州DMV路测牌照。

2017年6月24日,景驰宣布完成首次开放道路无人驾驶路测。

2017年9月8日,景驰宣布在硅谷高峰时段的车海中完成通勤路测。

2017年9月14日,景驰宣布已获华创资本等3000万美元天使投资,并启动1亿美元A轮融资。

2017年9月26日,景驰宣布Pre-A轮获得5200万美元融资,由启明创投(启明)领投,英伟达GPU Ventures进行战略投资。

2017年12月22日,百度以侵犯商业秘密为由,将其前自动驾驶事业部总经理王劲及王劲所经营的景驰公司诉至北京知识产权法院。

2017年12月28日,景驰宣布落地广州黄埔区,包括研发总部、运营总部和销售总部在内的核心团队将从美国硅谷迁至黄埔区广州开发区,建国内首个无人车大规模产业化公司。

同时,景驰宣布从2018年第一季度起,全年将量产500-1000辆无人驾驶车,三年内,景驰科技将引进和培养1000人,其中包括百名高端人才。

与黄埔区广州开发区、广州开发区金融控股集团和知名基金将围绕景驰科技共同打造100亿元的产业基金。

王劲回应百度官司:我们不希望打这么一个非常严肃的官司,这也不应该成为口水仗。

2018年1月30日,景驰宣布在广州生物岛开启常态化试运营,市民可预约试乘。

2018年2月23日,景驰内部全员邮件:CEO王劲离职,CTO韩旭接任。

2018年3月5日,景驰宣布加入百度Apollo。

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2FcLIW5
RSS Feed

RSS5

IFTTT

中国无人车第一案剧情突变:景驰投入百度Apollo怀抱,下周或和解收场

李根 发自 凹非寺 量子位 报道 | 公众号 QbitAI

相逢的人还会再相逢。

上周二,被百度"追杀"66天后,景驰CEO王劲离职一事终于天下皆知

而现在,从百度出走的创业团队,又带着景驰回到百度的"怀抱"。

今日官方消息:景驰科技正式加入百度Apollo开放平台,成为Apollo合作伙伴。未来双方将展开合作,积极推动自动驾驶行业发展。

对于这次不寻常的握手,双方都没说太多,既没有背景铺陈,也缺乏合作细节。

嗯,态度大于行动。

退一步海阔天空。

来看下双方仅有的官方表态:

景驰科技CEO韩旭表示:"景驰自创业之初就坚信,中国将最早实现无人驾驶,Apollo平台的开源开放创新模式为行业树立了典范,也进一步印证了这个观点。景驰很高兴加入百度Apollo,在Apollo的助力下跑出更快的速度。"

(量子位之前独家报道韩旭接任了CEO一职)

百度副总裁、智能驾驶事业群组总经理李震宇表示:"百度Apollo开放平台全面拥抱自动驾驶创业新势力,希望通过开源开放的创新模式,降低自动驾驶行业门槛,成为景驰等优秀创业公司的'创新加速器',让中国的技术跑赢世界。"

除此之外,双方没有更多发声。

所以百度和景驰的恩怨剧情,就此迎来ending?

恐怕还没有,至少还有一件事有待完成,那就是双方纠葛中的核心事件:知识产权官司。

小道消息:双方庭外和解,下周百度做出撤诉决定。

看来王劲是换取天下太平的筹码。也不知是他拒绝接受如此结局主动离职,还是他的离开成为了百度景驰合作的前提,甚至是传言中资本舍弃了王劲……

总之,景驰创始人王劲彻底出局了。

至此,百度基本算是得偿所愿,景驰也应该可以顺利生存发展下去。

以及百度还给未来,设立了一个警示牌。

所以,我们说这是一场标志性的"胜利"。

景驰"去王劲化"进程结束

"小孩子才分对错,成年人只看利弊。"

商场上更是如此。

量子位之前已经报道过,景驰不光是表面上更换CEO、投向百度,而且实际上也在逐步推进和王劲之间的"切割"。

好消息是,之前景驰在国内注册的公司,法人或者股东都没有王劲的名字,可能是因为王劲目前并非中国籍等方面的缘故。

不过,王劲在香港注册的JingChi HongKong Limited,在景驰体系中控制着最多的公司。在之前的报告中,量子位也提到了这是唯一需要变动的部分。

但上次报道景驰更换CEO时,景驰香港的变化文件还没公开。现在,这份文件已经正式披露出来,跟量子位之前猜测的一致:景驰香港唯一的董事王劲,现在也变更成韩旭。

变更的确切时间:2月12日。

现在,王劲和景驰唯之间不多的牵连,可能要算景驰美国公司。景驰CFO吕庆去年3月29日在加州注册的这家公司,目前CEO仍然写着王劲。

上次,量子位还在总结景驰公司体系时注意到,王劲去年1月30日在北京注册了一家新公司,和景驰的发音很像,名叫劲辰。

可能至少从1月开始,王劲已经已经在为接下来的变动做准备了。

不管怎么说,现在景驰公司体系的"去王劲化"进程,现在已经基本结束了。照例,我们还是放上一张图,总结一下。

Apollo"家族"

尽管李彦宏否认All in AI是他的战略,但百度此前一直都在高喊类似的口号。

其中,百度AI战略最具代表性的项目,就是Apollo。

目前Apollo已经是一个合作伙伴众多的计划。其中既包括北汽、一汽、金龙、奇瑞、戴姆勒、福特、车和家、蔚来、威马等新老车厂。也包括这个产业链上的一众关键角色,例如博世、德国大陆、德尔福、采埃孚、Velodyne、恩智浦、英特尔等。

以及,一些专门从事自动驾驶技术的开发商。

例如:地平线机器人、Momenta。

其中,地平线机器人的创始人余凯,此前担任百度研究院副院长;地平线机器人联合创始人黄畅,此前担任百度深度学习实验室主任架构师。

这个情况和景驰有相似之处。

而Momenta的创始团队,跟百度之间的交集不多。不过合作看起来反而更深。在Apollo官网提供的合作案例中,Momenta目前被放在第一个,合作事项是:Apollo1.5定车道昼夜自动驾驶方案。但也没有更多细节。

官网最下方有个"加入Apollo"的申请按钮。

点击之后,需要回答你是谁、你从哪里来、以及:

你想合作什么?

百度 VS. 景驰

最后,一起回顾一下这一季百度景驰的剧情始末吧。

2017年3月1日,百度官宣:把自动驾驶事业部等三合一,成立智能驾驶事业群组(IDG),交由到任不久的"二号人物"陆奇负责。同时百度高级副总裁、原自动驾驶事业部总经理王劲,"内部休息调整"。

当天,王劲官方资料被百度官网"下架"。

2017年3月27日,王劲公开宣布将离职百度,正式投身无人车创业。

2017年3月29日,王劲的新公司名"景驰科技"曝光。

2017年4月3日,景驰在硅谷完成注册。

2017年5月12日,景驰宣布完成首次封闭道路无人驾驶路测。

2017年6月18日,景驰获加州DMV路测牌照。

2017年6月24日,景驰宣布完成首次开放道路无人驾驶路测。

2017年9月8日,景驰宣布在硅谷高峰时段的车海中完成通勤路测。

2017年9月14日,景驰宣布已获华创资本等3000万美元天使投资,并启动1亿美元A轮融资。

2017年9月26日,景驰宣布Pre-A轮获得5200万美元融资,由启明创投(启明)领投,英伟达GPU Ventures进行战略投资。

2017年12月22日,百度以侵犯商业秘密为由,将其前自动驾驶事业部总经理王劲及王劲所经营的景驰公司诉至北京知识产权法院。

2017年12月28日,景驰宣布落地广州黄埔区,包括研发总部、运营总部和销售总部在内的核心团队将从美国硅谷迁至黄埔区广州开发区,建国内首个无人车大规模产业化公司。

同时,景驰宣布从2018年第一季度起,全年将量产500-1000辆无人驾驶车,三年内,景驰科技将引进和培养1000人,其中包括百名高端人才。

与黄埔区广州开发区、广州开发区金融控股集团和知名基金将围绕景驰科技共同打造100亿元的产业基金。

王劲回应百度官司:我们不希望打这么一个非常严肃的官司,这也不应该成为口水仗。

2018年1月30日,景驰宣布在广州生物岛开启常态化试运营,市民可预约试乘。

2018年2月23日,景驰内部全员邮件:CEO王劲离职,CTO韩旭接任。

2018年3月5日,景驰宣布加入百度Apollo。

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2FcLIW5
RSS Feed

RSS5

IFTTT

别翻墙了,谷歌机器学习速成课25讲视频全集在此

岳排槐 发自 LZYY量子位 出品 | 公众号 QbitAI

想必不少人都知道了,前几天谷歌推出免费的机器学习速成课程

但是,课程讲座的视频都放在YouTube上,这造成了一些学习困难。有不少读者问量子位要梯子,我们除了给出这种链接 http://t.cn/RoA3TXa ,还能做什么?

我们还把中文课程视频给搬运回来了……

这套课程,谷歌称其为"机器学习热爱者的自学指南",其中包含一系列视频讲座、实际案例分析和实践练习。而且基本是全程中文。

不光文字是中文的,老外的讲课,还用机器机器学习技术,给配了中文的发音。

多少年,谷歌的机器苦练中文发音和文法,这下有了用武之地。

交待一句,视频之外谷歌还提供了一些文字资料和小测验,这些都能在谷歌中国的官网上能看到,不用翻墙。地址:

http://ift.tt/2F3XCl0

当然这个页面里,可能你不翻墙还是看不了视频。所以你也许还会需要量子位搬运的这些视频。以及,我们只搬运了机器配音的中文版。

都说了是机器配音,所以发音有些奇怪之处,要怪……还是怪谷歌吧……

课程的主要架构分为三个部分:机器学习概念(18讲)、机器学习工程(4讲)、机器学习在现实世界的应用示例(3讲)。

一共是25段视频。

下面是全部内容的直通车。

课程目录

机器学习概念01-03讲:机器学习简介、框架处理、深入了解ML04-06讲:降低损失、使用TF的基本步骤、泛化07-09讲:训练集和测试集、验证、表示法10-12讲:特征组合、简单正则化、逻辑回归13-15讲:分类、稀疏性正则化、神经网络简介16-18讲:训练神经网络、多类别神经网络、嵌套机器学习工程19-20讲:生产环境机器学习系统、静态与动态训练21-22讲:静态与动态推理、数据依赖关系应用示例23-25讲:癌症预测、18世纪文字、应用准则

点进去大概是这样的⬇️

就酱,希望对大家有所帮助~

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2oNRYgc
RSS Feed

RSS5

IFTTT

别翻墙了,谷歌机器学习速成课25讲视频全集在此

岳排槐 发自 LZYY量子位 出品 | 公众号 QbitAI

想必不少人都知道了,前几天谷歌推出免费的机器学习速成课程

但是,课程讲座的视频都放在YouTube上,这造成了一些学习困难。有不少读者问量子位要梯子,我们除了给出这种链接 http://t.cn/RoA3TXa ,还能做什么?

我们还把中文课程视频给搬运回来了……

这套课程,谷歌称其为"机器学习热爱者的自学指南",其中包含一系列视频讲座、实际案例分析和实践练习。而且基本是全程中文。

不光文字是中文的,老外的讲课,还用机器机器学习技术,给配了中文的发音。

多少年,谷歌的机器苦练中文发音和文法,这下有了用武之地。

交待一句,视频之外谷歌还提供了一些文字资料和小测验,这些都能在谷歌中国的官网上能看到,不用翻墙。地址:

http://ift.tt/2F3XCl0

当然这个页面里,可能你不翻墙还是看不了视频。所以你也许还会需要量子位搬运的这些视频。以及,我们只搬运了机器配音的中文版。

都说了是机器配音,所以发音有些奇怪之处,要怪……还是怪谷歌吧……

课程的主要架构分为三个部分:机器学习概念(18讲)、机器学习工程(4讲)、机器学习在现实世界的应用示例(3讲)。

一共是25段视频。

下面是全部内容的直通车。

课程目录

机器学习概念01-03讲:机器学习简介、框架处理、深入了解ML04-06讲:降低损失、使用TF的基本步骤、泛化07-09讲:训练集和测试集、验证、表示法10-12讲:特征组合、简单正则化、逻辑回归13-15讲:分类、稀疏性正则化、神经网络简介16-18讲:训练神经网络、多类别神经网络、嵌套机器学习工程19-20讲:生产环境机器学习系统、静态与动态训练21-22讲:静态与动态推理、数据依赖关系应用示例23-25讲:癌症预测、18世纪文字、应用准则

点进去大概是这样的⬇️

就酱,希望对大家有所帮助~

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2oNRYgc
RSS Feed

RSS5

IFTTT

2018年3月3日星期六

国际象棋版AlphaZero出来了诶,还开源了Keras实现ヽ( `0´)ノ

原作 @Zeta36Root 编译自 全球最大同性交友网站量子位 报道 | 公众号 QbitAI

只用了不到4小时。

AlphaZero在去年底通过自我对弈,就完爆上一代围棋冠军程序AlphaGo,且没有采用任何的人类经验作训练数据(至少DeepMind坚持这么认为,嗯)。

昨天,GitHub有位大神@Zeta36用Keras造出来了国际象棋版本的AlphaZero,具体操作指南如下。

项目介绍

该项目用到的资源主要有:

  • 去年10月19号DeepMind发表的论文《不靠人类经验知识,也能学会围棋游戏》
  • 基于DeepMind的想法,GitHub用户@mokemokechicken所做的Reversi开发,具体前往https://github.com/mokemokechicken/reversi-alpha-zero
  • DeepMind刚发布的AlphaZero,从零开始掌握国际象棋:https://arxiv.org/pdf/1712.01815.pdf。

之前量子位也报道过,AlphaZero仅用了4小时(30万步)就击败了国际象棋冠军程序Stockfish。是不是🐵赛雷(´・Д・)」

更多细节去wiki看呗。

笔记

我是这个信息库(repositories,也简称repo)的创造者。

这个repo,由我和其他几个小伙伴一起维护,并会尽我们所能做到最好。

repo地址:https://github.com/Zeta36/chess-alpha-zero/graphs/contributors

不过,我们发现让机器自己对弈,要烧很多钱。尽管监督学习的效果很好,但我们从来没有尝试过自我对弈。

在这里呢,我还是想提下,我们已经转移到一个新的repo,采用大多数人更习惯的AZ分布式版本的国际象棋(MCTS in C ++):https://github.com/glinscott/leela-chess

现在,项目差不多就要完成啦。

每个人都可以通过执行预编译的Windows(或Linux)应用程序来参与。这个项目呢,我们赶脚自己做得还是不错的。另外,我也很确定,在短时的分布式合作时间内,我们可以模拟出DeepMind结果。

所以呢,如果你希望能看到跑着神经网络的UCI引擎打败国际象棋冠军程序Stockfish,那我建议你去看看介个repo,然后肯定能增强你家电脑的能力。

使用环境

Python 3.6.3tensorflow-gpu: 1.3.0Keras: 2.0.8

最新结果 (在@Akababa用户的大量修改贡献后获得的)

在约10万次比赛中使用监督式学习,我训练了一个模型(7个剩余的256个滤波器块),以1200个模拟/移动来估算1200 elo。 MCTS有个优点,它计算能力非常好。

下面动图泥萌可以看到,我(黑色)在repo(白色)模型中对阵模型:

下面的图,你可以看到其中一次对战,我(白色,〜2000 elo)在这个回购(黑色)中与模型对战:

首个好成绩

在用了我创建的新的监督式学习步骤之后,我已经能够训练出一个看着像是国际象棋开局的学习模型了。

下图,大家可以看到这个模型的对战(AI是黑色):

下面,是一场由@ bame55训练的对战(AI玩白色):

5次迭代后,这个模型就能玩成这样了。这5次里,'eval'改变了4次最佳模型。而"opt"的损失是5.1(但结果已经相当好了)。

Modules

监督学习

我已经搞出来了一个监督学习新的流程。

从互联网上找到的那些人类游戏文件"PGN",我们可以把它们当成游戏数据的生成器。

这个监督学习流程也被用于AlphaGo的第一个和最初版本。

考虑到国际象棋算是比较复杂的游戏,我们必须在开始自我对弈之前,先提前训练好策略模型。也就是说,自我对弈对于象棋来说还是比较难。

使用新的监督学习流程,一开始运行挺简单的。

而且,一旦模型与监督学习游戏数据足够融合,我们只需"监督学习"并启动"自我",模型将会开始边自我对弈边改进。

python src/chess_zero/run.py sl

如果你想使用这个新的监督学习流程,你得下载一个很大的PGN文件(国际象棋文件)。

并将它们粘贴到data / play_data文件夹中。BTW,FICS是一个很好的数据源。

您也可以使用SCID程序按照玩家ELO,把对弈的结果过滤。

为了避免过度拟合,我建议使用至少3000场对战的数据集,不过不要超过3-4个运行周期。

强化学习

AlphaGo Zero实际上有三个workers:self,opt和eval。

self,自我模型,是通过使用BestModel的自我生成训练数据。opt,训练模型,是用来训练及生成下一代模型。eval是评测模型,用于评估下一代模型是否优于BestModel。如果更好,就替换BestModel。

分布式训练

现在可以通过分布式方式来训练模型。唯一需要的是使用新参数:

输入分布式:使用mini config进行测试,(参见src / chess_zero / configs / distributed.py)分布式训练时,您需要像下面这样在本地运行三方玩家:

python src/chess_zero/run.py self —type distributed (or python src/chess_zero/run.py sl —type distributed)python src/chess_zero/run.py opt —type distributedpython src/chess_zero/run.py eval —type distributed

图形用户界面(GUI)

  • uci启动通用象棋界面,用于GUI。

为ChessZero设置一个GUI,将其指向C0uci.bat(或重命名为.sh)。例如,这是用Arena的自我对弈功能的随机模型的屏幕截图:

数据

  • data/model/modelbest: BestModel.
  • data/model/next_generation/: next-generation models.
  • data/playdata/play*.json: generated training data.
  • logs/main.log: log file.

如果您想从头开始训练模型,请删除上述目录。

使用说明

安装

安装库

pip install -r requirements.txt

如果您想使用GPU,请按照以下说明使用pip3进行安装。

确保Keras正在使用Tensorflow,并且你有Python 3.6.3+。根据您的环境,您可能需要运行python3 / pip3而不是python / pip。

基本使用

对于训练模型,执行自我对弈模型,训练模型和评估模型。

注意:请确保您正在从此repo的顶级目录运行脚本,即python src / chess_zero / run.py opt,而不是python run.py opt。

自我对弈

python src/chess_zero/run.py self

执行时,自我对弈会开始用BestModel。如果不存在BestModel,就把创建的新的随机模型搞成BestModel。

你可以这么做

创建新的BestModel;使用mini config进行测试,(参见src / chess_zero / configs / mini.py)。

训练模型

python src/chess_zero/run.py opt

执行时,开始训练。基础模型会从最新保存的下一代模型中加载。如果不存在,就用BestModel。训练好的模型每次也会自动保存。

你可以这么做

输入mini:使用mini config进行测试,(参见src / chess_zero / configs / mini.py)用全套流程:指定整套流程的(小批量)编号,不过跑完全程会影响训练的学习率。

评价模型

python src/chess_zero/run.py eval

执行后,开始评估。它通过玩大约200场对战来评估BestModel和最新的下一代模型。如果下一代模型获胜,它将成为BestModel。

你可以这么做

输入mini: 使用mini config进行测试,(请参阅src / chess_zero / configs / mini.py)

几点小提示和内存相关知识点

GPU内存

通常来讲,缺少内存会触发警告,而不是错误。

如果发生错误,请尝试更改src / configs / mini.py中的vram_frac,

self.vram_frac = 1.0

较小的batch_size能够减少opt的内存使用量。可以尝试在MiniConfig中更改TrainerConfig#batch_size。

最后,附原文链接,http://ift.tt/2F9Xchc

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2CX6Spn
RSS Feed

RSS5

IFTTT

国际象棋版AlphaZero出来了诶,还开源了Keras实现ヽ( `0´)ノ

原作 @Zeta36Root 编译自 全球最大同性交友网站量子位 报道 | 公众号 QbitAI

只用了不到4小时。

AlphaZero在去年底通过自我对弈,就完爆上一代围棋冠军程序AlphaGo,且没有采用任何的人类经验作训练数据(至少DeepMind坚持这么认为,嗯)。

昨天,GitHub有位大神@Zeta36用Keras造出来了国际象棋版本的AlphaZero,具体操作指南如下。

项目介绍

该项目用到的资源主要有:

  • 去年10月19号DeepMind发表的论文《不靠人类经验知识,也能学会围棋游戏》
  • 基于DeepMind的想法,GitHub用户@mokemokechicken所做的Reversi开发,具体前往https://github.com/mokemokechicken/reversi-alpha-zero
  • DeepMind刚发布的AlphaZero,从零开始掌握国际象棋:https://arxiv.org/pdf/1712.01815.pdf。

之前量子位也报道过,AlphaZero仅用了4小时(30万步)就击败了国际象棋冠军程序Stockfish。是不是🐵赛雷(´・Д・)」

更多细节去wiki看呗。

笔记

我是这个信息库(repositories,也简称repo)的创造者。

这个repo,由我和其他几个小伙伴一起维护,并会尽我们所能做到最好。

repo地址:https://github.com/Zeta36/chess-alpha-zero/graphs/contributors

不过,我们发现让机器自己对弈,要烧很多钱。尽管监督学习的效果很好,但我们从来没有尝试过自我对弈。

在这里呢,我还是想提下,我们已经转移到一个新的repo,采用大多数人更习惯的AZ分布式版本的国际象棋(MCTS in C ++):https://github.com/glinscott/leela-chess

现在,项目差不多就要完成啦。

每个人都可以通过执行预编译的Windows(或Linux)应用程序来参与。这个项目呢,我们赶脚自己做得还是不错的。另外,我也很确定,在短时的分布式合作时间内,我们可以模拟出DeepMind结果。

所以呢,如果你希望能看到跑着神经网络的UCI引擎打败国际象棋冠军程序Stockfish,那我建议你去看看介个repo,然后肯定能增强你家电脑的能力。

使用环境

Python 3.6.3tensorflow-gpu: 1.3.0Keras: 2.0.8

最新结果 (在@Akababa用户的大量修改贡献后获得的)

在约10万次比赛中使用监督式学习,我训练了一个模型(7个剩余的256个滤波器块),以1200个模拟/移动来估算1200 elo。 MCTS有个优点,它计算能力非常好。

下面动图泥萌可以看到,我(黑色)在repo(白色)模型中对阵模型:

下面的图,你可以看到其中一次对战,我(白色,〜2000 elo)在这个回购(黑色)中与模型对战:

首个好成绩

在用了我创建的新的监督式学习步骤之后,我已经能够训练出一个看着像是国际象棋开局的学习模型了。

下图,大家可以看到这个模型的对战(AI是黑色):

下面,是一场由@ bame55训练的对战(AI玩白色):

5次迭代后,这个模型就能玩成这样了。这5次里,'eval'改变了4次最佳模型。而"opt"的损失是5.1(但结果已经相当好了)。

Modules

监督学习

我已经搞出来了一个监督学习新的流程。

从互联网上找到的那些人类游戏文件"PGN",我们可以把它们当成游戏数据的生成器。

这个监督学习流程也被用于AlphaGo的第一个和最初版本。

考虑到国际象棋算是比较复杂的游戏,我们必须在开始自我对弈之前,先提前训练好策略模型。也就是说,自我对弈对于象棋来说还是比较难。

使用新的监督学习流程,一开始运行挺简单的。

而且,一旦模型与监督学习游戏数据足够融合,我们只需"监督学习"并启动"自我",模型将会开始边自我对弈边改进。

python src/chess_zero/run.py sl

如果你想使用这个新的监督学习流程,你得下载一个很大的PGN文件(国际象棋文件)。

并将它们粘贴到data / play_data文件夹中。BTW,FICS是一个很好的数据源。

您也可以使用SCID程序按照玩家ELO,把对弈的结果过滤。

为了避免过度拟合,我建议使用至少3000场对战的数据集,不过不要超过3-4个运行周期。

强化学习

AlphaGo Zero实际上有三个workers:self,opt和eval。

self,自我模型,是通过使用BestModel的自我生成训练数据。opt,训练模型,是用来训练及生成下一代模型。eval是评测模型,用于评估下一代模型是否优于BestModel。如果更好,就替换BestModel。

分布式训练

现在可以通过分布式方式来训练模型。唯一需要的是使用新参数:

输入分布式:使用mini config进行测试,(参见src / chess_zero / configs / distributed.py)分布式训练时,您需要像下面这样在本地运行三方玩家:

python src/chess_zero/run.py self —type distributed (or python src/chess_zero/run.py sl —type distributed)python src/chess_zero/run.py opt —type distributedpython src/chess_zero/run.py eval —type distributed

图形用户界面(GUI)

  • uci启动通用象棋界面,用于GUI。

为ChessZero设置一个GUI,将其指向C0uci.bat(或重命名为.sh)。例如,这是用Arena的自我对弈功能的随机模型的屏幕截图:

数据

  • data/model/modelbest: BestModel.
  • data/model/next_generation/: next-generation models.
  • data/playdata/play*.json: generated training data.
  • logs/main.log: log file.

如果您想从头开始训练模型,请删除上述目录。

使用说明

安装

安装库

pip install -r requirements.txt

如果您想使用GPU,请按照以下说明使用pip3进行安装。

确保Keras正在使用Tensorflow,并且你有Python 3.6.3+。根据您的环境,您可能需要运行python3 / pip3而不是python / pip。

基本使用

对于训练模型,执行自我对弈模型,训练模型和评估模型。

注意:请确保您正在从此repo的顶级目录运行脚本,即python src / chess_zero / run.py opt,而不是python run.py opt。

自我对弈

python src/chess_zero/run.py self

执行时,自我对弈会开始用BestModel。如果不存在BestModel,就把创建的新的随机模型搞成BestModel。

你可以这么做

创建新的BestModel;使用mini config进行测试,(参见src / chess_zero / configs / mini.py)。

训练模型

python src/chess_zero/run.py opt

执行时,开始训练。基础模型会从最新保存的下一代模型中加载。如果不存在,就用BestModel。训练好的模型每次也会自动保存。

你可以这么做

输入mini:使用mini config进行测试,(参见src / chess_zero / configs / mini.py)用全套流程:指定整套流程的(小批量)编号,不过跑完全程会影响训练的学习率。

评价模型

python src/chess_zero/run.py eval

执行后,开始评估。它通过玩大约200场对战来评估BestModel和最新的下一代模型。如果下一代模型获胜,它将成为BestModel。

你可以这么做

输入mini: 使用mini config进行测试,(请参阅src / chess_zero / configs / mini.py)

几点小提示和内存相关知识点

GPU内存

通常来讲,缺少内存会触发警告,而不是错误。

如果发生错误,请尝试更改src / configs / mini.py中的vram_frac,

self.vram_frac = 1.0

较小的batch_size能够减少opt的内存使用量。可以尝试在MiniConfig中更改TrainerConfig#batch_size。

最后,附原文链接,http://ift.tt/2F9Xchc

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2CX6Spn
RSS Feed

RSS5

IFTTT

LangChain 彻底重写:从开源副业到独角兽,一次“核心迁移”干到 12.5 亿估值 -InfoQ 每周精要No.899期

「每周精要」 NO. 899 2025/10/25 头条 HEADLINE LangChain 彻底重写:从开源副业到独角兽,一次"核心迁移"干到 12.5 亿估值 精选 SELECTED 1000 行代码手搓 OpenAI gpt-oss 推理引...