2017年11月3日星期五

2017国际脑信息学大会即将开幕 快来赢取免费参会机会

2017国际脑信息学大会即将开幕 快来赢取免费参会机会

 

 

伴随季节由深秋转至初冬,气温也将一天凉比一天。然而这并不影响"2017年是脑科学与人工智能大爆发之年"的火热现状。11月份,脑科学与人工智能的从业者们又将迎来另一场盛会。2017国际脑信息学大会如期而至,将于11月16-18日在北京工大建国饭店举行。这将掀起2017年末又一轮"脑与人工智能"的高潮。如果您还在为难以参加远在国外的OHBM或AAAI会议而感到遗憾的话,请千万不要错过此次回到本土举办的脑信息学会议。

 

本次大会以"从信息学视角探索脑与心智"为主题,将以计算、认知、生理、仿真、物理、生态和社会等脑信息学视角解读大脑,并关注与脑智能、脑健康、精神健康及福祉有关的主题。大会也欢迎从事于与脑研究相关的新兴信息技术领域的专家、学者、及产业界人士参会,这些领域包括(但不仅限于)神经科学、认知科学、心理学、人工智能、物联网、云计算、大数据分析以及交互式知识发现。大会将为专家、学者、以及产业界人士提供一个思想碰撞的舞台,使他们能够交流思想、发现、和策略,从而更好地利用和结合人脑自然网络与外在人造网络来创造一个更美好的世界。

 

脑信息学国际学术会议自2009年在北京成功举办以来,已经在加拿大多伦多、中国兰州、中国澳门、日本前桥、波兰华沙、英国伦敦、美国奥马哈等多个国家地区举办多届。适逢脑信息学诞生10周年之际,2017年脑信息学国际学术会议再次回到北京举办。

 

此次会议由国际网络人工智能协会(WIC)主办,北京工业大学,北京未来网络科技高精尖创新中心,以及中国科学院自动化研究所承办,中国人工智能学会,中国认知科学学会,IEEE计算智能学会,国际神经网络学会等协办。

 

会议官网:http://ift.tt/2h0BqhB

【参会方法请见文末】

 

大会特邀报告(11月17日  8:50-17:10)


Alan Evans

加拿大麦吉尔大学

加拿大科学院院士

OHBM组织创立者及主席

报告题目:失智症神经病理学网络传播的多模态建模

 

Tom Mitchell

美国卡耐基梅隆大学

美国工程院院士

世界首个机器学习系创建者

报告题目:词、句、以及故事理解的神经机制

 

Dinggang Shen

美国北卡罗来纳大学教堂山分校

报告题目:医学影像分析中的机器学习

 

 

 

胡 斌 

兰州大学

报告题目:基于计算心理生理学的精神健康研究方法论

 

 

Mike Hawrylycz

美国艾伦脑科学研究所

报告题目:健康与患病哺乳类动物脑中的多尺度基因表达印迹

 

 

毕彦超 

北京师范大学

报告题目:客体知识的认知神经基础

 

 

Adam R. Ferguson

美国加州大学旧金山分校

报告题目:促进创伤性脑与脊髓损伤领域知识发现

及实现从科研到临床应用转化的大规模数据分享治理

 

专题讨论会(11月17日  10:45-12:00)

题目: "国际"与"中国"的脑研究计划及人工智能战略

 

主持人:

钟  宁 (日本前桥工业大学  脑信息学会议指导委员会联合主席)

彭汉川  (美国艾伦脑科学研究所  脑信息学会议指导委员会联合主席)

 

发言人:

 

 

Frank van Harmelen (荷兰阿姆斯特丹自由大学  欧洲科学院院士  荷兰皇家科学院院士)

王国胤 (重庆邮电大学研究生院院长  中国人工智能学会副理事长)

徐  波 (中科院自动化研究所所长  类脑智能研究中心主任)

Tom Mitchell (美国卡耐基梅隆大学  美国工程院院士)

贺  永 (北京师范大学IDG/麦戈文脑科学研究院首席科学家)

栾国明  (首都医科大学三博脑科医院副院长  中国抗癫痫协会副会长)

罗跃嘉  (深圳大学情绪与神经科学研究所所长)

Alan Evans (加拿大麦吉尔大学  加拿大科学院院士)

 

Wiley & Springer Nature 作者工作坊

(11月17日  12:30-13:30)

题目:如何让你的论文被发表——谈科技论文的开放与透明

主讲人:脑(信息)科学国际期刊主编

 

主题研讨会

(11月16日  9:00-17:30; 18日13:30-17:30)

1. 脑与人工智能研讨会(BAI 2017)

2. 知识表征:脑与机器研讨会(KRBM 2017)

3. 情感、心理与生理计算研讨会(APPC 2017)

4. 支撑Brainsmatics的大数据与可视化研讨会(BDVB 2017)

5. 基于脑大数据的智慧服务研讨会(BBDBWS 2017)

6. 语义技术支撑数字医疗卫生研讨会(STeH 2017)

7. 面向脑与精神健康的大数据神经影像分析研讨会(BDNABMH 2017)

8. 临床与临床前期的脑成像新方法研讨会 (NMBICPN 2017)

9. 中观BraInFormatics研讨会(MBAI 2017)

10. 神经遗传学中的脑信息学研讨会 (BIN 2017)

11. BigNeuron项目研讨会 (BP 2017)

 

部分研讨会特邀报告

 

Sean Hill

瑞士洛桑联邦理工学院

题目:为实现可再现的万亿级脑图谱绘制的一项可扩展影像处理流水线工具

研讨会:BDVB 2017

时间:11月16日  13:30-17:30

 

何晖光

中科院自动化研究所

题目:深度学习是类脑的吗?用fMRI重建影像

研讨会:BBDBWS 2017

时间:11月18日  13:30-17:30

 

曾  毅

中科院自动化研究所

题目:类脑智能:从类脑学习机到类脑意识机

研讨会:BAI 2017

时间:11月16日  13:30-17:30

 

Pedro A. Valdes-Sosa

电子科技大学

题目:通过CBRAIN和LORIS使电生理学回归到全球脑计划中

研讨会:MBAI 2017

时间:11月16日  9:00-12:00

 

 

 

Alan Evans

加拿大麦吉尔大学

题目:中国-加拿大-古巴(CCC)轴心

研讨会:MBAI 2017

时间:11月16日  9:00-12:00

 

尧德中

电子科技大学

题目:中观的BraInFormatics

研讨会:MBAI 2017

时间:11月16日  9:00-12:00

 

 

论文/摘要口头发表分会(11月18日  9:00-14:50)

分会1:脑科学的认知计算基础

分会2:人脑信息加工系统

分会3:脑大数据的分析,策展,与管理

分会4:脑与精神健康研究的信息学范式

分会5:类脑智能与计算

 

 

另附会议简要程序

 

 

 

 

 

 

 

 

 

参会方法

 

【方法一:免费全程参会】通过完成指定任务成为机器之心赞助参会者

1. 请在您所在的学院、系、研究所、公司内张贴3张本次会议的宣传海报(海报下载地址:http://ift.tt/2ipQplj

2. 请您与张贴好的海报合影,并将照片连同您的姓名、单位名称、联系电话、邮箱地址以及对应的英文翻译一同发送到zhangly@bjut.edu.cn;

3. 请在会议结束后提交500字的参会感想和收获介绍,这些将在会后刊登在BI2017和机器之心网站;

4. 前50名申请者将获得免费参会的机会;

5. 获得免费资格却不参会者将被列入会议黑名单;

6. 注册不包含餐饮、茶歇。

 

【方法二:付费参会一天】通过汇款缴纳注册费参加任意一天的会议

1. 下载并填写参会者注册信息表(请登录http://ift.tt/2h19lq5

2. 缴纳注册费(11月10日前注册费用为1200元/人;11月10日后注册费用为1500元/人)汇款账户信息:银行账户名称:北京工业大学

银行账号: 02 0000 3709 0890 28526

开户行名称:工商银行北京广渠路支行

3. 请将注册信息以及汇款证明(如是学生注册请附学生证扫描件)一并发送到: zhangly@bjut.edu.cn,以便我们为您准备会议相关资料;

4. 请将您姓名与单位的英文翻译一同发送到上述邮箱,以便我们为您制作参会证;

5. 注册费不包含餐饮费用。

 

【方法三:付费全程参会】通过汇款缴纳注册费参会

1. 注册及付费流程请参考方法二;

2. 注册费用为3500元/人;学生2800元/人;

3. 注册费包含11月16-18日3天午餐、茶歇及17日晚宴费用。

 

联系信息

E-mail:zhangly@bjut.edu.cn  hi.yangyang@hotmail.com

会议官网:http://ift.tt/2h0BqhB



]]> 原文: http://ift.tt/2iro1iz
RSS Feed

机器知心

IFTTT

2017年11月2日星期四

在大家热议Vicarious AI那篇Science论文时,我们和这家公司的CTO聊了聊(回应LeCun批判)

上周,Vicarious AI 发表在 Science 上的一篇论文引发了业内热议,有褒有贬,甚至有媒体挖出了 Yann LeCun 2013 年对 Vicarious AI 的批判。在论文发布后,机器之心对 Vicarious AI 的 CTO Dileep George 进行了专访,谈到了概率生成模型、Yann LeCun 的批判等话题。



Dileep George


Vicarious AI 是一家硅谷的人工智能 (A.I.) 初创公司,致力于从人脑中获得启发,实现拥有高等智能的机器人。在 Vicarious AI 的办公室里,到处可见其标语——Our Frontier, Human-like AI。

上周,Vicarious AI 发表的一篇论文《A generative vision model that trains with high data efficiency and breaks text-based CAPTCHAs》引发了 AI 界的热议。作者在论文中提出了一个不同于深度学习的模型——递归皮质网络(Recursive Cortical Network),突破了基于文本的全自动区分计算机和人类的图灵测试 CAPTCHA。和主流的深度学习算法相比,Vicarious AI 的递归皮质网络在场景文字识别中体现了 300 倍的训练数据使用效率。


文本 CAPTCHA,也就是验证码,是用来防止机器人恶意登录网站的网络安全软件。人类是很容易识别出 CATPCHA 中形状怪异的文字,但对机器而言,CAPTCHA 则成了看不懂的鬼画符,所以这也被视为是一种图灵测试。




早在 2013 年,Vicarious AI 就声称已经攻克 CAPTCHA,但公司直到上周才发表了论文。其中一个主要原因是,当时 CAPTCHA 还在被广泛使用,Vicarious AI 担心发表论文会引发不小的网络安全问题。现在,依旧使用 CAPTCHA 作为验证手段的公司已经不多了,正是发表论文的好时机。


对 Vicarious AI 来说,攻克 CAPTCHA 只是通往 Human-like A.I. 的一个中继站。「我们的目标是解决所有人类擅长解决的问题,尤其是在面对自然视觉信号时,」George 说。


「如果一生只解决一个问题,我肯定选择人脑。」


George 本科毕业于印度理工学院,随后来到美国斯坦福大学就读电气工程,同时钻研机器学习。到了第二年,Dileep 开始对神经科学产生兴趣。「我曾经在初中读过很多心理学的书,在本科的时候全放弃了。这种兴趣在研二的时候又突然回来了,这让我开始侧重对神经科学的研究。」


George 在斯坦福大学读博士期间,遇到了 Jeff Hawkins——《人工智能的未来》作者,也是硅谷掌上电脑公司 Palm 的创始人(Palm 在 2011 年被惠普收购)。Hawkins 是神经科学领域的大牛,和 George 意气相投,两人在 2005 年共同创建了 Numenta——一家致力于机器智能的软件公司。


Numenta 并不满足于 George 对神经科学和机器学习的探索,所以在 2010 年,他准备重新创立一家新公司。碰巧在那个时候,D. Scott Phoenix 也就是 Vicarious AI 的现任 CEO 找到了他。创立 Vicarious AI 之前,Phoenix 曾有过一次创业经历,公司被硅谷知名的孵化器 Y Combinator 收录。之后,他又加入风投 Founders Fund,成为合伙人。


Phoenix 看中 George 在神经科学和工程学上的造诣,决定与他一同创建 Vicarious AI。从公司创立之初,他们的目标就很明确——从人脑获得启发,实现拥有高等智能的 A.I.。


「人脑就是一个通用学习的基础框架,可以在这个世界里学习各种各样的问题,」Phoenix 在接受高盛投资公司的采访中说。



D. Scott Phoenix


当时,提出这个想法的公司很少,但硅谷向来不缺慧眼识人的投资家,比如 Facebook 的天使投资人以及 Paypal 的创始人 Peter Thiel。Thiel 在 2010 年年底给 Vicarious AI 一笔种子轮融资。到了 2014 年,Vicarious AI 完成了 4000 万美元的 B 轮融资,包括 Facebook 的创始人 Mark Zuckerberg,Y Combinator 的 CEO Sam Altman,以及 Tesla 的创始人 Elon Musk 都参与其中。截止目前,Vicarious AI 的融资总额已经超过了 1.3 亿美元。


和融资额形成强烈反差的,是公司至今不过 50 人的规模以及缓慢的扩张速度。George 透露说,直到 2013 年,Vicarious AI 的团队才只有六个人。


「不是不想招人,我们花了很长时间才确定了一条我们自认为正确的研究方向。」George 说。这条方向就是让机器获得感知。


机器理解世界,需要画面感


A.I. 界有一句戏言——「无法理解自然语言的通用人工智能都是耍流氓」。但是,Vicarious AI 在创立之初却决定先回避对自然语言的研究,从计算机视觉领域入手。George 看来,如果机器无法感知这个世界,它也无法理解自己到底在干什么。


「一根垂直插在墙上的钉子和一根垂直插在地上的钉子,哪根钉子是横向的?」George 举了个简单的例子。很明显,插在墙上的钉子是答案。「通常来说,人们不是单纯地从字面上得到这个答案,而是在脑中想象这个画面。得到这个画面前,你必须有关于墙的物理知识和墙与钉子的交互方式,这也是为什么 Vicarious AI 要从视觉下手。」


在计算机视觉领域,如今的主流算法是以卷积神经网络(Convolutional Neural Network) 为代表的深度学习算法。但是,深度学习算法只对固定的问题有效,一旦问题出现变化,算法就不管用了。


「现在的强化学习已经可以玩打砖块游戏了,可如果下面的接受盘往上升三个像素,那么这个模型就会崩溃,」George 说完,还特别强调了「三个像素(only three pixels)」。


大量的数据和计算能力同样是制约深度学习的条件,至少人类下一盘围棋只需要一双手和一杯咖啡提提神,而基于深度学习的 AlphaGo 则要花上 3000 美金;重叠问题则是困扰卷积神经网络许久的「阿喀琉斯之踵」,一旦两张图片重叠,且重叠部分的颜色完全一致,那么卷积神经网络就很难分辨出来。


因此,Vicarious AI 选择了不同于深度学习的生成概率模型,能够模拟和生成图像中物体的轮廓、外形,从而理解物体。生成模型有两个明显的好处:更好的泛化能力和处理对抗样本的能力。在 Vicarious AI 最新的论文中,递归皮质网络就是一种能在多种计算机视觉任务中实现强大的性能和高数据效率的生成模型。


研究生成模型的挑战在于:研究问题的边界是未知的,这反而成了深度学习算法的优势——只让机器做一件事情,它就可以做得很好。Vicarious AI 的团队花了很长时间挑选研究的课题,既能解决计算机视觉中对物体的检测和识别,也能体现泛化的能力。最后,Vicarious AI 选中了 CAPTCHA。


著名的哲学家 Douglas Hofstadter 曾说过:「AI 的核心问题就是理解字母 A(the central problem of AI to understand is the letter 『A』)」,George 对这句话深信不疑。



代表字母 A 的四层递归皮质网络结构


「我认为 CAPTCHA 是一个『完全的 AI 问题』。如果你完全地解决了这种类型的问题,那你就得到了通用人工智能。」George 告诉记者,为了能彻底识别 CAPTCHA,模型必须能识别任何文本。不只是验证码,即使有人在纸上随便写什么形式的字体(就像 PPT 里的艺术字一样),模型也需要识别出来。


想要研究 CAPTCHA 的科学家不止 George 和他的团队,很多科学家都意识到识别 CAPTCHA 的重要性。麻省理工大学的认知科学教授 Josh Tenenbaum 同样在使用生成概率模型解决 CAPTCHA 的问题。


而 Vicarious AI 的解决方法和其他研究最大的区别是——将脑科学的研究成果应用到生成模型中。


人脑已经为机器搭好了框架


在实现通用人工智能的方法上,如今的 A.I. 界出现了巨大的分歧:偏向于借鉴人脑先天机制的「自然派」与相信机器自身发展的「机器派」。今年 10 月,A.I. 界的两位旗手——纽约大学心理学和神经科学教授 Gary Marcus 和 Facebook A.I. 研究所主管 Yann LeCun 就这个问题展开了两个多小时的辩论。Marcus 支持前者,LeCun 则是机器派。


Vicarious AI 选择了站队「自然派」:对人类大脑的研究是实现通用人工智能的关键。「所有的学习算法到头来都是搜索,如果撇开人脑,这样的搜索量实在是太大了;所以,我们认为需要借鉴人脑的特征来实现。」目前,Vicarious AI 有 20% 的成员是研究神经科学的专家,这些对人脑皮质的研究成果也在最新的这篇论文中体现。


在这篇论文中,最典型的例子就是利用视觉皮层中的横向连接(lateral connections)。在人类的视觉系统中,横向连接能够保证人类理解物体轮廓的连续性;将人类视觉的特征应用到递归皮质网络上时,横向连接允许递归皮质网络在池化的过程中不会失去特异性,从而增加不变性。


另一个例子则是「自上而下的注意力机制」。即使是高度重叠且重叠部分透明的字母 A 和 B,人类也可以轻松地分开识别这些字母,这是依靠了注意力机制。当这种特性应用在递归皮质网络时,就可以允许网络拥有组合型(compositionality),允许用多个对象来表示场景。


「我们的研究需要一个称之为『脚手架(scaffold)』的东西,」George 进一步解释道。脚手架原本是编程中的专用词,程序员会建造一个框架(脚手架)让他们方便地访问函数。同样的,递归皮质网络没有采取和 CNN 或者其他深度学习网络的方法,从一张白纸开始从头分析图像;而是基于人类识别图像的这个框架,让机器拥有和人类视觉系统一样的特征。


从结果上来看,递归皮质网络在场景文本识别基准的数据效率是深度学习算法的 300 倍甚至更多。递归皮质网络在 reCAPTCHA 上的准确率达到 66.6%,BotDetect 64.4%,Yahoo 57.4%,PayPal 57.1%。只要准确率高于 1%,就被认为是攻破了 CAPTCHA。


当 2013 年 Vicarious AI 公布结果时,业界褒贬不一,Vicarious AI 没有拿出有效的研究方法是很多 A.I. 科学家口诛笔伐的主要理由,其中也包括了 LeCun。他在 2013 年对 Vicarious AI 进行了激烈的抨击,并用「这是最糟糕的教科书式的 AI 炒作案例(It is a text example of AI hype of the worst kind)」来谴责 Vicarious AI。




过去的四年里,不少人都问过 George 对 LeCun 这番话的评价,他都不予置评。直到上周的论文发表后,George 告诉机器之心,「这篇论文就是最好的答案。」


递归皮质网络不只是用来攻破 CAPTCHA,它还将被应用在控制、推理、机器人技术上。近两年,Vicarious AI 已经在实验室里研究如何将技术应用到工业机器人上。


据 Vicarious AI 的商业化总监楼兴华博士介绍,Vicarious AI 将提供仓储机器人和工厂机器人所需要的视觉和控制的智能模块,尤其是在柔性制造上(flexible manufacturing)。传统的刚性制造生产线都是非标准自动化,每条生产线针对特定的产品,配置和模具都不一样。柔性制造的概念是自动适应不同的产品,最明显的优势就是让系统满足不同的产品要求进行生产,在场景和需求都变化的情况下,机器人的生产效率也能够被保障。


Vicarious AI 的投资人包括 ABB Group 和 Amazon,这家公司也与众多国内外顶尖机器人公司和制造商建立了合作关系。


工业机器人是目前 Vicarious AI 技术落地的方式,但并不意味着 Vicarious AI 会就此止步。Vicarious AI 希望在 2040 年前后实现高等智能的 A.I.。


「我不觉得其他公司会比我们先解决这个问题,」George 显得很有信心,「实现高等智能的 A.I. 就像是把人类送上月球一样伟大,这是我们做下去的动力。」

]]> 原文: http://ift.tt/2lKaZBN
RSS Feed

机器知心

IFTTT

谷歌发布 TensorFlow 1.4.0 版本,Keras 成为核心模块,API 变动较大

近日,TensorFlow 1.4.0 版本公布在了 GitHub 上,它更新和完善了一些主要功能,修复了一些 bug,并做出了其他变动,其中 API 方面的变动较大。


GitHub 地址:http://ift.tt/2z936LJ


主要功能与提升


  • tf.keras 现在是 TensorFlow API 内核的一部分。
  • tf.data 现在是 TensorFlow API 内核的一部分。

  1.     API 现在让步于后向兼容性保证。
  2.    有关从 tf.contrib.dataAPI 迁移的指导,请参见          http://ift.tt/2Af93og
  3. 主要的新功能包括用于从 Python 生成器构建输入通道的 Dataset.from_generator() 和应用自定义转换功能的 Dataset.apply() 方法。
  4. 若干个自定义转换功能已添加,包括 tf.contrib.data.batch_and_drop_remainder() 和

  • 为简单的分布式 Estimator 训练添加 train_and_evaluate。
  • 为计算 DCT-II 而添加 tf.spectral.dct。
  • (通过 GPU 和梯度支持)把梅尔频率倒谱(Mel-Frequency Cepstral)系数支持添加到 tf.contrib.signal。
  • 为 Windows DLL 问题在 import tensorflow 上添加一个自我检查。
  • 在 GPU 上为 tf.depth_to_space 添加 NCHW 支持。
  • TensorFlow 调试器(tfdbg):

  1. 添加 eval 指令,以允许评估 tfdbg 命令行接口中独断的 Python/numpy 表达式。详情参见调试 TensorFlow 程序:http://ift.tt/2kLsw6Q
  2. 可用性改进:常用的张量滤波器 has_inf_or_nan 现在被添加到 Session 包装器,并默认 hook。因此没有必要为客户端再次调用.add_tensor_filter(tf_debug.has_inf_or_nan)。

  • SinhArcsinh (scalar) 分布被添加到 contrib.distributions。
  • 开源 GANEstimator。
  • Estimator.export_savedmodel() 现在包含所有有效的、可从服务性输入接收器(Serving Input Receiver)和所有可用的 ExportOutput 构建的服务性签名。比如,除了分类性的输出,一个分类器也许可以提供回归和预测性的输出。从这些输出中构建签名允许 TF 服务通过不同的 API(分类、回归和预测)满足请求。进而,serving_input_receiver_fn() 现在也许可指定作为输入的节点的替代性子集。比如,这允许为接受原始张量而不是系列化的 tf.Example 分类器生成一个预测签名。
  • 添加 tf.contrib.bayesflow.hmc。
  • 添加 tf.contrib.distributions.MixtureSameFamily。
  • 每次默认迭代之后总是重新调整 Dataset.shuffle()。
  • 添加 tf.contrib.bayesflow.metropolis_hastings。
  • 添加 log_rate parameter to tf.contrib.distributions.Poisson。
  • 扩展 tf.contrib.distributions.bijector API 以处理一些 non-injective 转换。
  • Java:

  1. 用于提高类型安全性的泛型。
  2. 支持多维度弦张量。
  3. 支持在 Linux 和 OS X 上加载自定义运算。

  • 我们所有的预构建二进制已通过 CUDA 8 和 cuDNN 6 构建完成。我们将发行带有 CUDA 9 和 cuDNN 7 的 TensorFlow 1.5 版本。


Bug 修复与其他改变


  • tf.nn.rnn_cell.DropoutWrapper 现在更在意放弃 LSTM 状态。具体来讲,它不再放弃一个 LSTMStateTuple 的 c(内存)状态。新的行为为 LSTM 和堆栈 LSTM 带来了合适的 dropout 行为。这一 Bug 修复遵从了已发表文献的建议,但是一个行为改变。状态 dropout 行为也许通过新的 dropout_state_filter_visitor 参数被自定义。
  • 删除 tf.contrib.training.python_input。通过新的 tf.contrib.data.Dataset.from_generator 方法,相同行为在一个更加灵活和可重用的工具包中是可用的。
  • 修复 tf.contrib.distributions.Affine 错误计算的 log-det-jacobian。
  • 修复 tf.random_gamma 错误处理的非批处理、标量绘制。
  • 在 TensorForest TreePredictionsV4Op 中重新解决一个竞赛条件。
  • 谷歌云存储文件系统、Amazon S3 文件系统和 Hadoop 文件系统支持现在是默认的构建选项。
  • 自定义操作库必须链接到 ibtensorflow_framework.so(安装在 tf.sysconfig.get_lib())。
  • 改变 RunConfig 默认行为从而不设置一个随机种子,保持随机行为在分布式工作器上独立地随机。我们期待这可从整体上提升训练性能。依赖于决定论的模型应该明确地设置一个随机种子。


API 的突破性改变


  • tf.contrib.data.rejection_resample() 功能的签名已被改变。它现在返回到一个可用作 Dataset.apply() 参数的函数。
  • 删除 tf.contrib.data.Iterator.from_dataset() 方法,并使用 Dataset.make_initializable_iterator()。
  • 删除很少使用的和不必要的 tf.contrib.data.Iterator.dispose_op()。
  • 通过非后向、可兼容的方式重新排序一些 TFGAN 损失函数。


已知问题


  • 在 Python 3 中,Dataset.from_generator() 不支持 Unicode 字符串。你必须早生成器产生它们之前把所有字符串转化为字节对象。


下载


  • 源代码(zip):http://ift.tt/2Ad5HC1
  • 源代码(tar.gz):http://ift.tt/2xTVsRG


]]> 原文: http://ift.tt/2lOxfL5
RSS Feed

机器知心

IFTTT

AI打《星际》被人类碾压?不,事情并没有这么简单

李林 千平 发自 凹非寺量子位 出品 | 公众号 QbitAI

"人类总算能摆脱被统治的阴影"。

这两天,一场《星际争霸》的人机对抗"表演赛",让不少人类感到扬眉吐气。毕竟在这场比赛中,韩国顶级职业玩家Stork(宋炳具),一鼓作气击败了四个AI玩家,赢得500万韩元奖金!

约合人民币近3万元。

宋炳具选手

整场比赛流程是这样的:人类阵营先由两个普通学生星际玩家出场,分别挑战上个月《星际争霸AI大赛》的冠军:ZZZK、来自挪威的TSCMO、主办方韩国世宗大学研发的MJ。

结果AI阵营分别以3:0、2:1击败了普通人类星际玩家,唯一的败仗由韩国星际AI贡献。总比分算是5:1。

然后就是Stork登场,以一波4:0碾压AI,挽回人类颜面。

为什么赢了四场?因为原本预计会有三场精彩的人机对决,但是Stork赢得实在是太轻松了,没办法只能临时加赛,让《星际争霸AI大赛》上排名第六的CherryPi压轴登场,结果Stork使用神族侦察机就直捣敌窟。

尽管CherryPi来自大名鼎鼎的Facebook AI研究院,但成绩真是一贯不咋地。

AI选手

  • 带中文解说的现场视频,可以前往这里收看:

http://ift.tt/2iXcWtE

  • 如果对全程感兴趣,可以科学前往这里收看:

https://www.youtube.com/watch?v=L54zoUwVPLI

不够AI的AI

顶级职业选手战胜了AI,乍一听,星际界这个情况似乎跟围棋界形成了鲜明的对照。围棋这个领域,AI战胜了顶级职业选手。

但,还真不是一回事儿。

相比之下,AlphaGo是一套复杂的人工智能系统,现在已经可以几乎不借助任何人类知识,自行学会下围棋,并且迅速的成长为高手。

关于最新版AlphaGo Zero,有人花了一张图进行解读。如果你能看懂的话,应该还蛮有意思的……

而参加这次"星际争霸人机大战"、以及上个月《星际争霸AI大赛》的人工智能系统,都在相当初级的阶段。

比如其中最厉害的ZZZK,背后是澳大利亚的程序员Chris Coxe。他独自创建了这个AI,但其中只有一些简单的学习功能,背后更多是各种预先编辑好的策略。

量子位之前也介绍过,ZZZK只能执行一种单基地Rush战术。另外,这个ZZZK能在游戏中学习一些策略,以判断哪种Rush是最有效的。

星际AI大赛成绩单

当然与普通玩家相比,星际AI还是有着人类难以比拟的优势,比方每分钟可以完成峰值2万次的操作,而人类大概是300次。

由于AI玩的不够好,就不详细解读它们的策略了。有兴趣的可以看上面提到的视频。Stork表示,跟他对局的AI出于普通玩家的中等水平。

总而言之,这次Stork击败的AI,其实不够AI。

DeepMind在干嘛

为什么AI在星际这个领域没能大杀四方?

很简单,太难了。

星际是个实用的基础AI研究环境,因为游戏本身复杂多变。AI想要取胜需要同时做多手准备,比如管理并创造资源、指挥军事单位和部署防御结构等操作需要同时进行,逐步完成。此外,AI还需预测对手的策略。

在围棋领域,Facebook开发的AI最终还是敌不过DeepMind开发的AlphaGo。而现在Facebook又在星际领域率先推出AI。

不管是有心无心,新的"竞争"开始了。不过,DeepMind在干嘛?

DeepMind当然不会错过星际;以及DeepMind选择的路径有点不一样。首先,赛场就不一样,Facebook在星际中搏杀,而DeepMind选择了星际2。其次,DeepMind没有直接推AI,而是搞了一套:SC2LE。

这是一套星际2工具包,用于加速AI研究。由DeepMind和暴雪联合发布,这个工具包中包括:

  • 机器学习API:由暴雪开发,将研究人员和开发人员接入游戏,并自带首次发布的Linux工具包。至此,Windows、Mac与Linux系统均可在云端运行。
  • 匿名游戏回放数据集:包含65000多场游戏记录,在接下来的几周将增加至50万场,帮助实现智能体间的离线比赛。
  • 开源的DeepMindPySC2工具包:方便研究人员使用暴雪的特征层API训练智能体。
  • 一系列简单的增强学习迷你游戏:帮助研究人员在特定任务上测试智能体的性能。
  • 概述开发环境的论文:记录了迷你游戏的初始基线结果、监督学习数据以及智能体间完整的对抗记录。

简而言之,可以看看下面这个视频:

不止星际

AI感兴趣的游戏,不止星际一个。

DeepMind的名字深入人心,可能是因为下围棋的AlphaGo。不过,最初为这家公司在人工智能领域建立了赫赫声望的,是雅达利(Atari)的游戏。

2015年2月,也就在AlphaGo和李世乭下棋之前一年多,DeepMind第一次登上了《自然》封面,他们发表了一篇论文:Human-level control through deep reinforcement learning。这篇论文展示了DeepMind的算法如何学会了49种雅达利游戏,并在其中23种里击败人类。

比如说Video Pinball、Boxing、打砖块(Breakout)、Star Gunner、Robotank等等,AI都很擅长。

DQN打雅达利游戏的战果

这篇论文中的算法DQN,后来成了谈到AI打游戏就一定会说起的一种算法,DeepMind和同行们都对它进行了不少改进,前不久,DeepMind还提出了一种DQN的新变体:Rainbow,论文提交给了AAAI 2018。

热衷于雅达利游戏的,还有马斯克等人联合创立的AI研究机构OpenAI。

在2016年发布的强化学习开发工具包OpenAI Gym中,集成了多个环境,其中就包含基于Arcade学习环境的雅达利游戏。

而年底发布的人工智能测试训练平台Universe更是集游戏之大成,除了2600中雅达利游戏之外,Universe里还有1000个Flash游戏。后来,Universe还引入了《侠盗猎车手5》(GTA V),让研究者用AI在虚拟世界里开车。

兴趣广泛的OpenAI,除了集成到Universe平台上的游戏之外,今年还在DotA 2圈的"世界杯"TI7邀请赛上火了一把,影魔中单solo完虐了职业选手Dendi。

可能还有《王者荣耀》。

此前多个媒体报道称,马化腾表示正在测试AI对战手游玩家。这个信息也被广泛解读为腾讯正在训练AI打《王者荣耀》。正经的说,游戏AI是腾讯一个明确的研究方向,包括LOL中未来可能也会有一个AI大魔王。

为什么科技公司不惜重金打游戏

众多科技公司,都对AI打游戏有着浓厚的兴趣,并不是一个偶然。

对于AI研究者来说,这些游戏天然为人工智能提供了一个比真实世界更简单的交互环境,又能为AI设定一个清晰的目标,同时,还提供了一个简单易用的衡量标准。

AI从游戏中学到的策略,对于现实世界中的其他领域的决策来说也有参考价值。比如说DeepMind用来打砖块的DQN,在对话系统、文本生成上就有着不错的效果,也能用来控制机器人避障、导航。

AI打GTA V,甚至本来就是为了在高仿真环境中,训练人工智能来识别街道、物体。游戏中本身就包含了大量的标注数据,比真是数据量更大、更容易获得。如果你在训练无人车的时候没有Waymo Carcraft那么高级的模拟环境,GTA也是个勉强能接受的折衷选择。

和很多打电子游戏的AI同样用了深度强化学习算法的AlphaGo,就在围棋界"独孤求败"之后找到了自己在现实世界中的价值,DeepMind说,他们期待用AlphaGo的算法,来解决蛋白质折叠、降低能耗、寻找革命性的新材料等等问题。

实际上,从2016年开始,Google就开始在数据中心里应用AlphaGo的算法,来控制风扇、空调、窗户、服务器等等的电量。谷歌说,AI帮他们提高了大约15%的能源利用效率。

打游戏的各位AI们成才之后,大可以多向这位下棋的前辈学习。

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2iXcYlg
RSS Feed

RSS5

IFTTT

AI打《星际》被人类碾压?不,事情并没有这么简单

李林 千平 发自 凹非寺量子位 出品 | 公众号 QbitAI

"人类总算能摆脱被统治的阴影"。

这两天,一场《星际争霸》的人机对抗"表演赛",让不少人类感到扬眉吐气。毕竟在这场比赛中,韩国顶级职业玩家Stork(宋炳具),一鼓作气击败了四个AI玩家,赢得500万韩元奖金!

约合人民币近3万元。

宋炳具选手

整场比赛流程是这样的:人类阵营先由两个普通学生星际玩家出场,分别挑战上个月《星际争霸AI大赛》的冠军:ZZZK、来自挪威的TSCMO、主办方韩国世宗大学研发的MJ。

结果AI阵营分别以3:0、2:1击败了普通人类星际玩家,唯一的败仗由韩国星际AI贡献。总比分算是5:1。

然后就是Stork登场,以一波4:0碾压AI,挽回人类颜面。

为什么赢了四场?因为原本预计会有三场精彩的人机对决,但是Stork赢得实在是太轻松了,没办法只能临时加赛,让《星际争霸AI大赛》上排名第六的CherryPi压轴登场,结果Stork使用神族侦察机就直捣敌窟。

尽管CherryPi来自大名鼎鼎的Facebook AI研究院,但成绩真是一贯不咋地。

AI选手

  • 带中文解说的现场视频,可以前往这里收看:

http://ift.tt/2iXcWtE

  • 如果对全程感兴趣,可以科学前往这里收看:

https://www.youtube.com/watch?v=L54zoUwVPLI

不够AI的AI

顶级职业选手战胜了AI,乍一听,星际界这个情况似乎跟围棋界形成了鲜明的对照。围棋这个领域,AI战胜了顶级职业选手。

但,还真不是一回事儿。

相比之下,AlphaGo是一套复杂的人工智能系统,现在已经可以几乎不借助任何人类知识,自行学会下围棋,并且迅速的成长为高手。

关于最新版AlphaGo Zero,有人花了一张图进行解读。如果你能看懂的话,应该还蛮有意思的……

而参加这次"星际争霸人机大战"、以及上个月《星际争霸AI大赛》的人工智能系统,都在相当初级的阶段。

比如其中最厉害的ZZZK,背后是澳大利亚的程序员Chris Coxe。他独自创建了这个AI,但其中只有一些简单的学习功能,背后更多是各种预先编辑好的策略。

量子位之前也介绍过,ZZZK只能执行一种单基地Rush战术。另外,这个ZZZK能在游戏中学习一些策略,以判断哪种Rush是最有效的。

星际AI大赛成绩单

当然与普通玩家相比,星际AI还是有着人类难以比拟的优势,比方每分钟可以完成峰值2万次的操作,而人类大概是300次。

由于AI玩的不够好,就不详细解读它们的策略了。有兴趣的可以看上面提到的视频。Stork表示,跟他对局的AI出于普通玩家的中等水平。

总而言之,这次Stork击败的AI,其实不够AI。

DeepMind在干嘛

为什么AI在星际这个领域没能大杀四方?

很简单,太难了。

星际是个实用的基础AI研究环境,因为游戏本身复杂多变。AI想要取胜需要同时做多手准备,比如管理并创造资源、指挥军事单位和部署防御结构等操作需要同时进行,逐步完成。此外,AI还需预测对手的策略。

在围棋领域,Facebook开发的AI最终还是敌不过DeepMind开发的AlphaGo。而现在Facebook又在星际领域率先推出AI。

不管是有心无心,新的"竞争"开始了。不过,DeepMind在干嘛?

DeepMind当然不会错过星际;以及DeepMind选择的路径有点不一样。首先,赛场就不一样,Facebook在星际中搏杀,而DeepMind选择了星际2。其次,DeepMind没有直接推AI,而是搞了一套:SC2LE。

这是一套星际2工具包,用于加速AI研究。由DeepMind和暴雪联合发布,这个工具包中包括:

  • 机器学习API:由暴雪开发,将研究人员和开发人员接入游戏,并自带首次发布的Linux工具包。至此,Windows、Mac与Linux系统均可在云端运行。
  • 匿名游戏回放数据集:包含65000多场游戏记录,在接下来的几周将增加至50万场,帮助实现智能体间的离线比赛。
  • 开源的DeepMindPySC2工具包:方便研究人员使用暴雪的特征层API训练智能体。
  • 一系列简单的增强学习迷你游戏:帮助研究人员在特定任务上测试智能体的性能。
  • 概述开发环境的论文:记录了迷你游戏的初始基线结果、监督学习数据以及智能体间完整的对抗记录。

简而言之,可以看看下面这个视频:

不止星际

AI感兴趣的游戏,不止星际一个。

DeepMind的名字深入人心,可能是因为下围棋的AlphaGo。不过,最初为这家公司在人工智能领域建立了赫赫声望的,是雅达利(Atari)的游戏。

2015年2月,也就在AlphaGo和李世乭下棋之前一年多,DeepMind第一次登上了《自然》封面,他们发表了一篇论文:Human-level control through deep reinforcement learning。这篇论文展示了DeepMind的算法如何学会了49种雅达利游戏,并在其中23种里击败人类。

比如说Video Pinball、Boxing、打砖块(Breakout)、Star Gunner、Robotank等等,AI都很擅长。

DQN打雅达利游戏的战果

这篇论文中的算法DQN,后来成了谈到AI打游戏就一定会说起的一种算法,DeepMind和同行们都对它进行了不少改进,前不久,DeepMind还提出了一种DQN的新变体:Rainbow,论文提交给了AAAI 2018。

热衷于雅达利游戏的,还有马斯克等人联合创立的AI研究机构OpenAI。

在2016年发布的强化学习开发工具包OpenAI Gym中,集成了多个环境,其中就包含基于Arcade学习环境的雅达利游戏。

而年底发布的人工智能测试训练平台Universe更是集游戏之大成,除了2600中雅达利游戏之外,Universe里还有1000个Flash游戏。后来,Universe还引入了《侠盗猎车手5》(GTA V),让研究者用AI在虚拟世界里开车。

兴趣广泛的OpenAI,除了集成到Universe平台上的游戏之外,今年还在DotA 2圈的"世界杯"TI7邀请赛上火了一把,影魔中单solo完虐了职业选手Dendi。

可能还有《王者荣耀》。

此前多个媒体报道称,马化腾表示正在测试AI对战手游玩家。这个信息也被广泛解读为腾讯正在训练AI打《王者荣耀》。正经的说,游戏AI是腾讯一个明确的研究方向,包括LOL中未来可能也会有一个AI大魔王。

为什么科技公司不惜重金打游戏

众多科技公司,都对AI打游戏有着浓厚的兴趣,并不是一个偶然。

对于AI研究者来说,这些游戏天然为人工智能提供了一个比真实世界更简单的交互环境,又能为AI设定一个清晰的目标,同时,还提供了一个简单易用的衡量标准。

AI从游戏中学到的策略,对于现实世界中的其他领域的决策来说也有参考价值。比如说DeepMind用来打砖块的DQN,在对话系统、文本生成上就有着不错的效果,也能用来控制机器人避障、导航。

AI打GTA V,甚至本来就是为了在高仿真环境中,训练人工智能来识别街道、物体。游戏中本身就包含了大量的标注数据,比真是数据量更大、更容易获得。如果你在训练无人车的时候没有Waymo Carcraft那么高级的模拟环境,GTA也是个勉强能接受的折衷选择。

和很多打电子游戏的AI同样用了深度强化学习算法的AlphaGo,就在围棋界"独孤求败"之后找到了自己在现实世界中的价值,DeepMind说,他们期待用AlphaGo的算法,来解决蛋白质折叠、降低能耗、寻找革命性的新材料等等问题。

实际上,从2016年开始,Google就开始在数据中心里应用AlphaGo的算法,来控制风扇、空调、窗户、服务器等等的电量。谷歌说,AI帮他们提高了大约15%的能源利用效率。

打游戏的各位AI们成才之后,大可以多向这位下棋的前辈学习。

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2iXcYlg
RSS Feed

RSS5

IFTTT

LangChain 彻底重写:从开源副业到独角兽,一次“核心迁移”干到 12.5 亿估值 -InfoQ 每周精要No.899期

「每周精要」 NO. 899 2025/10/25 头条 HEADLINE LangChain 彻底重写:从开源副业到独角兽,一次"核心迁移"干到 12.5 亿估值 精选 SELECTED 1000 行代码手搓 OpenAI gpt-oss 推理引...