2017年12月4日星期一

“不正经”NIPS大会指北:嘻哈歌手、感人长队(以及最佳论文)

夏乙 问耕 假装发自加州量子位 出品 | 公众号 QbitAI

这几天,AI圈人士纷纷前往洛杉矶附近风景宜人的长滩。

他们在这里排长队、晒太阳、看大海、听嘻哈、谈穿着,以及……顺便参加NIPS 2017。

我们不一样

神经信息处理系统大会,简称NIPS,是机器学习领域的顶级会议。

斯坦福不久前发布的AI Index报告说,NIPS目前已经是人工智能领域关注度最高的学术会议,增长速度仅次于新秀ICLR。

今年的NIPS大会在长滩会议中心(Convention Center)举行,参会门票早早地就被抢光,注册人数超过8000人。

据说照这个趋势发展下去,参会人数将超过全人类的总数。(感觉哪里怪怪的)

场面火爆到什么程度呢?第一天就让人热泪盈眶。

那注册的长队,长到让人怀疑人生,长到让友邦人士惊呼crazy,长到得用全景图才能拍下来,比方下面这张:

在室外艰辛的排完队,到门口一看:嚯~室内还得继续排!感人~

注册报到完毕,然后就是畅游在NIPS大会的海洋里了。你以为都是各类正经的不行的高大上分享和讨论?不不不,并不是这样。

还有派对!比方Intel AI组织的这场《Let the Gradient Flo》。这个大爬梯请来了美国著名嘻哈歌手Flo Rida。哟~

(不过这个活动也被@hardmaru 在推特上吐槽,说是AI泡沫的表现。他真的很严格)

现场还有展览区。据说各大企业在现场都支了摊儿,展示自家的科研成果,顺便强势宣讲一波以便招人。其中,IBM这个展区推荐看一下。

这是什么?这是IBM的量子计算机呀~

Dress Code

这么一个大会,怎么穿才不像第一次去的萌新?

上周有个小哥就在reddit上提出这个问题,在线等,挺急的……"热心"网友们,纷纷站出来出谋划策。量子位摘录如下:

穿西装、打领带有点不合适,只要不是穿得特别正式都应该可以。期待看到很多人穿牛仔裤和T恤,以及短袖衬衫、卡其裤。温馨提示,别穿印着"My NIPS are NP-Hard"字样的T恤去参会。

上面讲的这个T恤,讲真是2015年的老黄历了。今年的T恤上印的字是:"Yes,We GAN"。

(Goodfellow笑而不语)

当然上面这个回答算是很正经了,随后的讨论歪楼到了奇怪的方向~

只要别露着NIPS,怎么穿都行

这个梗在于,nips通常被美国人民口语里指代咪咪(不是猫那个)。

男士通常以漏点(NIP-slips)的方式穿着比基尼,女士穿和服和瑜伽裤。大家都不穿鞋。如果你是大实验室的研究院,可以在披风上写上过去一年用了多少GPU小时。

所谓NIP-slips,Google一下大概是这样:

还有人给出一个可行性很高的建议:

穿一套白色西装,定叫人过目难忘。

大会论文

最后,谈点正经的。

量子位在9月的报道中已经提到,NIPS 2017共收到3240篇论文投稿,毫不意外这个数字又创了新高。有678篇论文被选中作为大会论文,比例20.9%。

其中有40篇被选中进行口头报告(oral),112篇选为spotlight进行展示。

论文的领域分布,如下所示。

全部论文在这里:NIPS 2017 Proceedings

今天,NIPS还公布了两个奖项,一是最佳论文奖(Best paper awards),另一个是时间检验奖(Test of time award)。

最佳论文奖(共3篇):

Safe and Nested Subgame Solving for Imperfect-Information Games

作者:

Noam Brown,卡耐基梅隆大学计算机科学博士生

Tuomas Sandholm,卡耐基梅隆大学计算机科学教授,Brown的导师

摘要:

在不完美信息博弈中,子博弈的最优策略可能取决于其他未知子博弈的策略。因此,在为子博弈求解时必须将整个博弈视为整体来考虑策略,而不能像完美信息博弈一样孤立地求解。不过,可以先逼近整个博弈的解,然后通过解出单个子博弈来优化它。这叫做子博弈求解(subgame solving)。我们提出了在理论上和实践上都超越前人的子博弈求解技术,并展示了如何调整它们和过去的子博弈求解技术,在对手做出超出原始行为抽象的行为时,进行应对,这显著优于之前最先进的行为翻译(action translation)方法。最后我们表明子博弈求解在博弈沿博弈树进行的过程中可以重复,降低了可利用性。在第一个玩一对一无限注德州扑克击败人类对手的AI冷扑大师(Libratus)中,这些技术是关键的组成部分。

地址:

http://ift.tt/2ArtGzS

Variance-based Regularization with Convex Objectives

作者:

Hongseok Namkoong,斯坦福大学运筹学博士

John C. Duchi,斯坦福大学统计学和电子工程助理教授

摘要:

我们开发了一种风险最小化和随机优化的方法,该方法提供了方差的凸代替项,让近似和估计误差之间能够进行近似最佳且计算上高效的交换。我们的方法建立在分布式健壮优化和欧文经验似然的基础上,还提供了一些有限样本和渐近结果来表示估计的理论性能。我们特别表明,我们的方法带有最右证明,与通过自动平衡偏差和方差来实现经验风险最小化相比,(在某些情况下)能实现更快的收敛速度。有确凿的经验证据表明,我们的估计器在实践中确实会在训练样本的方差和绝对性能之间权衡,对很多分类问题,与标准的经验风险最小化方法相比,提高了样本外(测试)性能。

地址:

http://ift.tt/2AwL1FE

A Linear-Time Kernel Goodness-of-Fit Test

作者:

Wittawat Jitkrittum,伦敦大学学院盖茨比计算神经科学实验室博士生

Wenkai Xu,伦敦大学学院盖茨比计算神经科学实验室博士生

Zoltan Szabo,法国École Polytechnique应用数学中心副教授

Kenji Fukumizu,日本统计数理研究所教授

Arthur Gretton,伦敦大学学院盖茨比计算神经科学实验室教授

摘要:

我们提出了一种测试拟合优度的新方法,计算成本与样本数量线性相关。我们通过最小化假阴性率来学习最能显示观察样本与参考模型之间差异的测试特征。这些特征通过Stein方法构建,这意味着没有必要计算模型的标准化常数。我们分析了新测试的Bahadur渐近效率,证明了在均值漂移的情况下,无论怎样选择测试参数,我们测试的相对效率都比之前的线性时间内核测试更高。在实验中,我们方法的性能超过了之前的线性时间测试,不次于二次时间内核测试。在高维且模型结构可能被利用的情况下,从模型中抽取样本,我们的拟合优度测试明显优于基于最大平均偏差的二次二样本测试。

地址:

http://ift.tt/2ArtIaY

Python代码:

http://ift.tt/2AuxcHH

时间检验奖

今年的时间检验奖颁给了2007年的Random Features for Large-Scale Kernel Machines,作者是英特尔研究院的Ali Rahimi和加州理工的Benjamin Recht。

论文地址:Random Features for Large-Scale Kernel Machines

OMT

Google以及DeepMind等机构,还把各自被NIPS 2017收录的论文进行了整理。量子位这里直接给传送门了~

Google at NIPS 2017

http://ift.tt/2jJ5bnN

DeepMind papers at NIPS 2017

http://ift.tt/2Az2z6m

Facebook showcases latest research at NIPS 2017

http://ift.tt/2jxxHsH

— 完 —

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2AsmELw
RSS Feed

RSS5

IFTTT

没有评论:

发表评论

LangChain 彻底重写:从开源副业到独角兽,一次“核心迁移”干到 12.5 亿估值 -InfoQ 每周精要No.899期

「每周精要」 NO. 899 2025/10/25 头条 HEADLINE LangChain 彻底重写:从开源副业到独角兽,一次"核心迁移"干到 12.5 亿估值 精选 SELECTED 1000 行代码手搓 OpenAI gpt-oss 推理引...