2017年10月6日星期五

不到10美元、比M&M豆还小:它让谷歌首款AI相机Clips梦想成真

撰文 | 邱陆陆

编辑 | 微胖


10 月 4 日,谷歌在「谷歌制造」(Made by Google)活动上宣布了 8 款全新硬件产品。其中非常引人注目的是 Google Clips 相机,这款不过巴掌大小的产品面向家庭场景,能够自动寻找有价值的瞬间并进行捕捉。


值得一提的是,所有这些机器学习算法都在机器本地运行,最大程度保护了用户的隐私。这可以说是人工智能终端化的一个非常典型的样例,而支持这一切的「智能来源」,是英特尔旗下的 Movidius Myriad 2 VPU 芯片。


比一颗 M&M 豆还小的 Myriad 2 芯片(图为2014年发布的 Myriad 2)


「Google Clips 作为一款智能相机,正代表了 Movidius 团队在开发 Myriad VPU 技术时所梦想的终端设备机上智能。低能耗的智能芯片正在让越来越多以 AI 技术为基础的智能设备走进现实」,原 Movidius CEO、现任英特尔公司副总裁 Remi El-Ouazzane 近日在接受媒体采访时表示。


Google Clips 中涉及的机器学习算法包括:第一,寻找有价值的瞬间、拍摄一个小的包含整个瞬间的片段,并从中选取出「稳定、清晰」的照片,第二,识别照片中的人物、动物、场景。最后,根据用户保留特定照片的动作,学习有哪些元素是重要的,对以后的拍摄进行优化。


Google Clips 产品负责人 Juston Payne 在活动上介绍 Google Clips


由于机器学习算法,尤其是神经网络,对计算能力的极大需求,当前的大部分机器学习应用都需要终端设备能够连接互联网,在本地获取输入后,将数据传输到云端,在云端进行计算和处理并返回到本地输出。这个过程中,传输时间与网络环境密切相关,联网也会大幅缩短的电池寿命,最重要的是,用户的数据隐私很难得到保障。因此,智能算力终端化一直是一个热门的话题。


背靠 Google Cloud、拥有强有力云端计算能力的谷歌也从未放松对终端计算的追求。「(云端与终端)综合的方式是非常有意义的。我们对于两种方式都会审慎地进行投入」,谷歌 CEO Sundar Pichai 在接受媒体采访时表示,「(最终选择哪一种)取决于情境、亟待解决的问题以及以不同的方式部署是否有意义。」


但是,如何能把在几年前还是一台性能超卓的处理器才能完成的运算任务放进小小的终端处理芯片中,同时还要保证能耗不超过设备电池的承受能力,以及成本低廉、让设备的价格可以为大众接受,一直是一个硬件上的难题。


去年 9 月被英特尔收购的 Movidius 就一直致力于解决这个难题。这家公司从 2007 年就开始致力于设计低能耗计算机视觉与深度学习处理芯片。


2010 年,公司与东芝一起开发了专用于处理图像和视频的 Myriad 1,这一动作引起了摩托罗拉先进科技与计划团队(ATAP)的注意,二者在 2012 年正式开始了「Project Pink」,研制用于高性能图像计算的 28 纳米架构,项目在摩托罗拉被谷歌收购后变成了谷歌的「Project Tango」。


2014 年,Movidius 正式发布第二代 Myriad 芯片 Myriad 2 VPU。据介绍,Myriad 2 芯片使用了一种和 Myriad 1 完全不同的架构。新的架构使得 2 代获得比 1 代高 20 倍的运算效能——每秒 3 万亿次浮点运算,功耗不到 0.5 瓦。28 纳米芯片能够同时支持 6 个 60 帧 Full HD 视频内容输入。Remi El-Ouazzane 在接受电话采访时曾表示,这种新型芯片在移动设备上占用的空间仅相当于当前芯片的五分之一,而成本也只是当前芯片的五分之一。事实上,El-Ouazzane 说,这块芯片为移动设备带来的视频运算能力提升,已经达到了单反级别。


当时,这些芯片应当且已经具有足够清晰的消费级产品用途,并以星火燎原之势抢占了不少原属于移动端 GPU 的地盘。


比如,从 15 年起,Movidius 为大疆提供计算机视觉计算解决方案,其产品 Phantom4、Mavic Pro、Phantom4 Pro、Inspire2 等都采用了 Myriad 2 芯片。今年推出的具有手势识别遥控功能的迷你无人机 DJI Spark,也是由 Myriad 2 芯片支持传统几何视觉运算与深度学习运算,从而获得了空间感知与情景感知能力。16 年年底,国内安防巨头海康威视与 Movidius 达成合作协议,海康威视将在新的智能相机中使用 Movidius 的 Myriad 2 视觉处理芯片。


2016 年 1 月,谷歌宣布从 Movidius 公司那里正式获得 Myriad 2 VPU 芯片的授权。Myriad 2 家族包括 MA2150 和 MA2450 芯片以及相关 SDK。这种微型芯片及其 12 个内核,可以实现低功耗、先进的计算机视觉处理。虽然当时谷歌并未透露会在哪种移动设备使用 Myriad 2 芯片,但高层曾暗示 Myriad 2 的低功耗是谷歌决定授权使用这种芯片的一个重要原因。


通过与 Movidius 公司的合作,谷歌「将可以让人工智能技术的应用范围不再局限于数据中心,而是扩大至现实世界,让人们从个人设备上获得机器智能的种种益处。」谷歌负责机器智能的产品总监 Blaise Aguera y Arcas 曾告诉媒体。近日,Arcas 在谈及 Google Clips 时还表示,Movidius 的 VPU 技术让他们在开发 Google Clips 时有能力进行更多的创新。


去年 1 月,Myriad 2 的价格已经低至 10 美元。今年 8 月底,Movidius 发布了 Movidius Myriad X VPU,但 Myriad X 不会取代 Myriad 2,新产品将负责更加高端市场。



据报道,Myriad X 芯片引入了被称之为神经计算引擎(Neural Compute Engine)的新结构,将会在同样功耗条件下提供 Myriad 2 十倍的深度神经网络性能。新芯片旨在使无人机,摄像机,机器人,VR 和 AR 等边缘设备的推理更加迅速,将视觉处理与 AI 功能结合起来,扩展更多设备的应用场景。


]]> 原文: http://ift.tt/2yN9nZV
RSS Feed

机器知心

IFTTT

NTSB发布53页最终报告:特斯拉自动驾驶事故「会发生在任何人身上」

编译 | 张震

作者 | PETE BIGELOW

来源 | CAR AND DRIVER


据美国国家运输安全委员会(NTSB)重要人员称,在更好地理解自动驾驶应如何与人类司机互动之前,汽车厂商可能想要放缓推出这些功能的步伐。在使用这一新技术时,司机仍需担负路况的监管责任。


去年,一辆具有 Autopilot 自动驾驶功能的 Model S 在行使过程中发生致命车祸。上述示意正是来自于美国国家运输安全委员会对这一事故调查的最终报告(该机构曾在 9 月 12 日发布过一份报告的摘要,这次是一份全面的分析)。这份长达 53 页的报告,连同上月公布的数据表明,卡车司机没能及时避让,而特斯拉司机过于依赖 Autopilot 自动驾驶功能,最终酿成 2016 年 5 月 7 日佛罗里达公路上的这一起交通事故,Model S 司机 Joshua Brown 在事故中死亡。


这一最终报告附有委员会成员 Christopher A. Hart 的书面评论。他将现状与上个年代人类将自动化引入航空业的经验进行了比较。几十年过去了,他点评道,汽车行业并没有从航空事故中吸取教训。


「航空业从飞行自动化的经验中吸取了教训」,Hart 写道,「『我们可以做到』并不必然地会导致人类与自动化更好地合作。」「因此,航空自动化朝着以人为中心的自动化演进,旨在提高人类-自动化系统的整体表现。这次特斯拉自动驾驶事故正好证明在没有充分考虑人的因素引入自动化时,将会产生怎样的后果。」


Hart 的言论从一开始就击中了两难境地的核心,从本质上将新兴自动驾驶技术分成两派。一些公司,比如福特和 Waymo 相信人类司机与自动驾驶系统的相互协作会带来许多的问题,他们已经放弃了对高级驾驶员辅助功能(ADAS)的研发,支持舍弃方向盘和刹车等传统汽车控制系统的设计。


另一些公司,比如通用汽车、奥迪、特斯拉已经制定计划,继续让人类参与驾驶过程。不过,如何最好地协调人类与自动驾驶功能,其复杂程度也众所周知。尽管每家公司已经设计出自动驾驶功能激活后,确保人类参与驾驶过程的方式,但是,NTSB 的报告已清楚表明,自动驾驶系统要想上路,任务艰巨。随着时间的推移,这些功能会更加的完善,人类开车技术更加糟糕这一前景让人心生不安。


「人类很不善于监控自动化,」Deborah Bruce 表示,他是 NTSB 调查员,负责对特斯拉 Autopilot 进行调查。他向汽车杂志《Car and Driver》谈到,「执行被设计要求的任务时,就不会唤起注意。从长达几十年的对核电站监测的研究和历史来看,人类并不擅长自动化监测。因为人们不擅长需要注意力的任务。」


NTSB 调查期间摄制的图片,我们可以看到拖车下面在这次事故中的损伤情况


考虑到人类这方面的局限性,NTSB 建议制造商们想办法监督司机是否集中注意力,这个办法要比司机仅需触碰的方向盘传感器要好。不过,Hart 形容那些措施还「不够。」因为驾驶行为天生的是一种视觉任务,更青睐的办法包括朝向驾驶员面部的摄像头,可以追踪驾驶员眼球活动。通用汽车的新款 Super Cruise 系统中已经使用了这一办法。


NTSB 进一步建议,汽车制造商应加装安全系统确保自动驾驶系统的使用符合设计条件。比如,Autopilot 本应该用于隔离的高速公路,但驾驶员却在弗罗里达 Williston 的 27A 公路使用了这一功能。这一道路本来就允许夸道行驶,结果一辆载有蓝莓的卡车停在了 Brown 的道路上。发生事故前,Brown 已经使用 Autopilot 自动驾驶功能行驶了 6.7 英里。


就像国家公路交通安全管理局之前对这一事件的调查,NTSB 对特斯拉事故的调查也是一个标志性的事件,因为这是 Level 2 自动驾驶系统发生的第一起世人皆知的交通事故。Level 2 自动驾驶系统可以对方向盘、油门、刹车进行控制,而人类只需监督大的驾驶环境,对车辆运行承担最终责任。


这份最终报告出台之际,正是国会考虑立法放宽对汽车制造商部署自动驾驶汽车的监管之时。不久之前,联邦自动驾驶车辆政策刚删除了一个优先要求:制造商自觉提交一份关于自己技术的安全评估。NTSB 调查人员称,汽车制造商配合了这次调查,也协助他们从汽车系统中提取数据供委员会使用。他们进一步谈到尽管这是一起涉及特斯拉的事故,但问题具有系统性,涉及整个行业。


「你当然可以说这是一起有关特斯拉的事故,但调查后,我们发现这不仅仅是场特斯拉车祸,」Bruce 说。「可能特斯拉是第一个发生事故的,但是,考虑到人类正在驾驶这些车辆,这一事故将来可能会发生在任何人身上。」



而且,Autopilot 这个名字也引发大众用户对这一系统功能和局限性的错误认识。NTSB 和一些安全倡议者也越来越担心,汽车制造商没有正确教育用户理解这些系统的细节,具体品牌术语让人晕头转向。


「让这一问题变得复杂的原因就在于『Autopilot』这个名字」,Hart 在他的评论中写道。「飞行员知道即便自动驾驶正控制飞机飞行,飞行员仍扮演着关键角色。而另一方面,单从『Autopilot』 这个名称,人们可能会据此推断根本无需关注驾驶任务,因为自动驾驶系统正在接管一切。」


Hart 的言论得到了委员会主席 Robert Sumwalt 的支持。NTSB 是一个独立于美国交通部的联邦机构,从事事故调查,并就如何提升安全性提供自己的意见,但不具有管理权限。


特斯拉尚未对 NTSB 的最终报告进行评论。上个月,在委员会公布其发现和意见后,一位发言人表示,「NTSB 对去年的悲剧进行的分析,我们表示感谢,我们将会对他们的建议进行评估,并不断完善我们的技术。我们也会让现有的以及潜在的客户知悉,Autopilot 并不是完全自动驾驶技术,驾驶人员需要时刻保持谨慎。」


报告地址:http://ift.tt/2wurbYL


]]> 原文: http://ift.tt/2xk8f3H
RSS Feed

机器知心

IFTTT

2017年10月5日星期四

超级变变变:喵星人汪星人还有街景神奇变身|Paper+Code

夏乙 千平 发自猴姆量子位 出品 | 公众号 QbitAI

只会卖萌的猫主子分分钟变身百兽之王?

白天能不能懂夜的黑?

你的汪星人如果是其他品种会是什么样?

不用想象,有个AI已经(完全不用人插手)"脑补"一切。先展示结果:

给一张小猫咪的图像(左边),AI就能自动让它变身狮子王(右边)。

给一张白天的图像(左边),AI就能自动脑补出夜晚的样子(右边),还把灯效加上了~

给一张冬天的图像(左边),AI就能脑补夏天会是什么景象(右边),还把叶子加上了~

UNIT

上面这些神奇的变身,都属于"图像到图像翻译"的问题。

这些结果都来自Nvidia研究团队的一篇NIPS 2017论文:UNsupervised Image-to-image Translation networks。

Ming-Yu Liu(刘洺堉)等研究员提出了一种基于耦合生成对抗网络(Coupled GAN)和变分自动编码器(VAE)的无监督图像到图像翻译框架,他们还根据首字母缩写(强行)给"无监督图像到图像翻译"起了个名字:UNIT。

论文中提到,从概率模型的角度来分析图像到图像的翻译问题,会发现其中的关键挑战是学习不同领域图像的联合分布。

共享潜在空间假设

为了推断联合分布,Ming-Yu Liu等使用了"共享潜在空间假设",假设不同领域的一对对应图像(x1、x2)可以映射到共享潜在空间(z),UNIT框架就建立在这个假设的基础之上。

上图中的E1和E2是两个编码函数,可以将图像映射到潜在编码,而G1和G2是两个生成函数,从潜在编码映射到图像。

UNIT框架结构

在UNIT框架中,研究人员用VAE-GAN对每张图像建模,其中抗性训练目标与权重共享约束相互作用,实施共享空间,以在两个域中生成相对应的图像,而VAE将翻译的图像与相应域中的输入图像关联起来。他们用卷积神经网络(CNN)重建了E1、E2和G1、G2,并通过权重共享限制来实现了共享潜在空间假设。

搞定这个框架之后,研究人员们把它用到了各类无监督图像到图像翻译任务上,比如说……

能完成街景在晴天雨天、白天黑夜、夏景雪景之间的转换,支持640×480的图片;也能在合成图像和真实照片之间进行转换:

还可以在各种狗狗品种之间转换,只要养一只狗,发朋友圈的时候就可以在哈士奇、德牧、柯基、萨摩耶、英国牧羊犬可以变来变去:

除了狗,还有猫,但不是你家的各类长毛短毛主子,而是在家猫、老虎、狮子、美洲狮、美洲虎、猎豹之间互相转换:

当然,最常见的人脸变换这个模型也能搞定,可以生成出金发、微笑、山羊胡、戴眼镜等等特征:

要想说自己的模型好,当然还得和别人的作品比较一下。

几位研究员用街景门牌号数据集SVHN、MNIST和USPS数据集之间的变换测试了模型性能,和SA、DANN、DTN、CoGAN等模型进行了比较。

UNIT框架在SVHN→MNIST任务上的准确率达到0.9053%,远高于同类模型。

Paper+Code

如果你对这篇论文感兴趣,可以直接阅读原文。Paper地址:http://ift.tt/2n16TBg

另外,Nvidia研究团队还放出了这项研究的代码。这是一个无监督图到图翻译的Coupled GAN算法PyTorch实现。

GitHub地址:http://ift.tt/2vKgxfV

更多这个项目的图像变换结果,可以在以下地址查看。

http://ift.tt/2ggXtR3

我们还挑了几段视频,直接贴在这里。比方冬天变夏天:

还有小猫和兽王互相变身:

研究团队

Ming-Yu Liu(刘洺堉)

刘洺堉是Nvidia Research的研究员,专注于计算机视觉和机器学习方向。此前先后供职于英特尔和三菱。刘洺堉2003年在台湾交通大学获得学士学位,2012年在马里兰大学帕克分校获得博士学位。

刘洺堉个人主页的信息显示,今年他已经发布了9篇论文,除了上面这篇中NIPS(Spotlight)之外,他还有一篇论文中了IJCAI,有两篇中了CVPR(包括一篇Oral):

  • Tactics of Adversarial Attack on Deep Reinforcement Learning Agents

Yen-Chen Lin, Zhang-Wei Hong, Yuan-Hong Liao, Meng-Li Shih, Ming-Yu Liu, Min Sun

International Joint Conference on Artificial Intelligence (IJCAI), 2017 Melbourne, Australia

Paper:http://ift.tt/2ggXuo5

Project:http://ift.tt/2y4TP6o

  • Deep 360 Pilot: Learning a Deep Agent for Piloting through 360 Sports Videos

Hou-Ning Hu, Yen-Chen Lin, Ming-Yu Liu, Hsien-Tzu Cheng, Stanley Chang, Min Sun

Conference on Computer Vision and Pattern Recognition (CVPR) Oral, 2017, Honolulu, Hawaii

Paper:http://ift.tt/2ggimvw

  • CASENet: Deep Category-Aware Semantic Edge Detection

Zhiding Yu, Chen Feng, Ming-Yu Liu, Srikumar Ramalingam

Conference on Computer Vision and Pattern Recognition (CVPR), 2017, Honolulu, Hawaii

Paper:http://ift.tt/2y3DzT8

Thomas Breuel

Thomas Breuel是Nvidia的杰出研究科学家(Distinguished Research Scientist)。去年10月加入Nvidia之前,他在Google担任研究科学家的工作。他还长期在德国凯泽斯劳腾大学任教,以及供职于施乐、IBM等公司。

Thomas Breuel本硕毕业于哈佛大学,1992年在麻省理工获得博士学位。来自Google Scholar的信息显示,Thomas Breuel今年除了这篇论文,还有一份专利申请获批。

Jan Kautz

Jan Kautz是Nvidia视觉计算和机器学习研究的高级总监,领导整个视觉计算研发小组。此外他还一直担任伦敦大学学院的教职。

他本科毕业于德国埃尔朗根-纽伦堡大学,随后在滑铁卢大学获得硕士学位,2003年Jan Kautz在德国马克思·普朗克计算机科学研究所获得博士学位。

今年以来,Jan Kautz还发布了十几篇论文,其中包括:

  • Learning Affinity via Spatial Propagation Networks

S. Liu, S. De Mello, J. Gu, M.-S. Yang, J. Kautz

Neural Information Processing Systems (NIPS)

Paper:http://ift.tt/2gfQ58C

  • Intrinsic3D: High-Quality 3D Reconstruction by Joint Appearance and Geometry Optimization with Spatially-Varying Lighting

R. Maier, K. Kim, D. Cremers, J. Kautz, M. Niessner

IEEE International Conference on Computer Vision (ICCV)

Paper:http://ift.tt/2y3GkUK

  • A Lightweight Approach for On-The-Fly Reflectance Estimation

K. Kim, J. Gu, S. Tyree, P. Molchanov, M. Niessner, J. Kautz

IEEE International Conference on Computer Vision (ICCV,Oral)

Paper:http://ift.tt/2ggXvZb

  • Mixed-primary Factorization for Dual-frame Computational Displays

F.-C. Huang, D. Pajak, J. Kim, J. Kautz, D. Luebke

ACM Transactions on Graphics (Proceedings SIGGRAPH 2017)

Paper:http://ift.tt/2wi6FKr

  • Dynamic Facial Analysis: From Bayesian Filtering to Recurrent Neural Network

J. Gu, S. De Mello, X. Yang, J. Kautz

IEEE Conference on Computer Vision and Pattern Recognition (CVPR)

Paper:http://ift.tt/2vedsVW

  • GA3C: GPU-based A3C for Deep Reinforcement Learning

M. Babaeizadeh, I. Frosio, S. Tyree, J. Clemons, J. Kautz

International Conference on Learning Representations(ICLR)

Paper:http://ift.tt/2fNAVI5

Code:http://ift.tt/2gIRhD3

  • Pruning Convolutional Neural Networks for Resource Efficient Transfer Learning

P. Molchanov, S. Tyree, T. Aila, T. Karras, J. Kautz

International Conference on Learning Representations(ICLR)

http://ift.tt/2g85QvW

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI



via 量子位 - 知乎专栏 http://ift.tt/2y3xvu4
RSS Feed

RSS5

IFTTT

超级变变变:喵星人汪星人还有街景神奇变身|Paper+Code

夏乙 千平 发自猴姆量子位 出品 | 公众号 QbitAI

只会卖萌的猫主子分分钟变身百兽之王?

白天能不能懂夜的黑?

你的汪星人如果是其他品种会是什么样?

不用想象,有个AI已经(完全不用人插手)"脑补"一切。先展示结果:

给一张小猫咪的图像(左边),AI就能自动让它变身狮子王(右边)。

给一张白天的图像(左边),AI就能自动脑补出夜晚的样子(右边),还把灯效加上了~

给一张冬天的图像(左边),AI就能脑补夏天会是什么景象(右边),还把叶子加上了~

UNIT

上面这些神奇的变身,都属于"图像到图像翻译"的问题。

这些结果都来自Nvidia研究团队的一篇NIPS 2017论文:UNsupervised Image-to-image Translation networks。

Ming-Yu Liu(刘洺堉)等研究员提出了一种基于耦合生成对抗网络(Coupled GAN)和变分自动编码器(VAE)的无监督图像到图像翻译框架,他们还根据首字母缩写(强行)给"无监督图像到图像翻译"起了个名字:UNIT。

论文中提到,从概率模型的角度来分析图像到图像的翻译问题,会发现其中的关键挑战是学习不同领域图像的联合分布。

共享潜在空间假设

为了推断联合分布,Ming-Yu Liu等使用了"共享潜在空间假设",假设不同领域的一对对应图像(x1、x2)可以映射到共享潜在空间(z),UNIT框架就建立在这个假设的基础之上。

上图中的E1和E2是两个编码函数,可以将图像映射到潜在编码,而G1和G2是两个生成函数,从潜在编码映射到图像。

UNIT框架结构

在UNIT框架中,研究人员用VAE-GAN对每张图像建模,其中抗性训练目标与权重共享约束相互作用,实施共享空间,以在两个域中生成相对应的图像,而VAE将翻译的图像与相应域中的输入图像关联起来。他们用卷积神经网络(CNN)重建了E1、E2和G1、G2,并通过权重共享限制来实现了共享潜在空间假设。

搞定这个框架之后,研究人员们把它用到了各类无监督图像到图像翻译任务上,比如说……

能完成街景在晴天雨天、白天黑夜、夏景雪景之间的转换,支持640×480的图片;也能在合成图像和真实照片之间进行转换:

还可以在各种狗狗品种之间转换,只要养一只狗,发朋友圈的时候就可以在哈士奇、德牧、柯基、萨摩耶、英国牧羊犬可以变来变去:

除了狗,还有猫,但不是你家的各类长毛短毛主子,而是在家猫、老虎、狮子、美洲狮、美洲虎、猎豹之间互相转换:

当然,最常见的人脸变换这个模型也能搞定,可以生成出金发、微笑、山羊胡、戴眼镜等等特征:

要想说自己的模型好,当然还得和别人的作品比较一下。

几位研究员用街景门牌号数据集SVHN、MNIST和USPS数据集之间的变换测试了模型性能,和SA、DANN、DTN、CoGAN等模型进行了比较。

UNIT框架在SVHN→MNIST任务上的准确率达到0.9053%,远高于同类模型。

Paper+Code

如果你对这篇论文感兴趣,可以直接阅读原文。Paper地址:http://ift.tt/2n16TBg

另外,Nvidia研究团队还放出了这项研究的代码。这是一个无监督图到图翻译的Coupled GAN算法PyTorch实现。

GitHub地址:http://ift.tt/2vKgxfV

更多这个项目的图像变换结果,可以在以下地址查看。

http://ift.tt/2ggXtR3

我们还挑了几段视频,直接贴在这里。比方冬天变夏天:

还有小猫和兽王互相变身:

研究团队

Ming-Yu Liu(刘洺堉)

刘洺堉是Nvidia Research的研究员,专注于计算机视觉和机器学习方向。此前先后供职于英特尔和三菱。刘洺堉2003年在台湾交通大学获得学士学位,2012年在马里兰大学帕克分校获得博士学位。

刘洺堉个人主页的信息显示,今年他已经发布了9篇论文,除了上面这篇中NIPS(Spotlight)之外,他还有一篇论文中了IJCAI,有两篇中了CVPR(包括一篇Oral):

  • Tactics of Adversarial Attack on Deep Reinforcement Learning Agents

Yen-Chen Lin, Zhang-Wei Hong, Yuan-Hong Liao, Meng-Li Shih, Ming-Yu Liu, Min Sun

International Joint Conference on Artificial Intelligence (IJCAI), 2017 Melbourne, Australia

Paper:http://ift.tt/2ggXuo5

Project:http://ift.tt/2y4TP6o

  • Deep 360 Pilot: Learning a Deep Agent for Piloting through 360 Sports Videos

Hou-Ning Hu, Yen-Chen Lin, Ming-Yu Liu, Hsien-Tzu Cheng, Stanley Chang, Min Sun

Conference on Computer Vision and Pattern Recognition (CVPR) Oral, 2017, Honolulu, Hawaii

Paper:http://ift.tt/2ggimvw

  • CASENet: Deep Category-Aware Semantic Edge Detection

Zhiding Yu, Chen Feng, Ming-Yu Liu, Srikumar Ramalingam

Conference on Computer Vision and Pattern Recognition (CVPR), 2017, Honolulu, Hawaii

Paper:http://ift.tt/2y3DzT8

Thomas Breuel

Thomas Breuel是Nvidia的杰出研究科学家(Distinguished Research Scientist)。去年10月加入Nvidia之前,他在Google担任研究科学家的工作。他还长期在德国凯泽斯劳腾大学任教,以及供职于施乐、IBM等公司。

Thomas Breuel本硕毕业于哈佛大学,1992年在麻省理工获得博士学位。来自Google Scholar的信息显示,Thomas Breuel今年除了这篇论文,还有一份专利申请获批。

Jan Kautz

Jan Kautz是Nvidia视觉计算和机器学习研究的高级总监,领导整个视觉计算研发小组。此外他还一直担任伦敦大学学院的教职。

他本科毕业于德国埃尔朗根-纽伦堡大学,随后在滑铁卢大学获得硕士学位,2003年Jan Kautz在德国马克思·普朗克计算机科学研究所获得博士学位。

今年以来,Jan Kautz还发布了十几篇论文,其中包括:

  • Learning Affinity via Spatial Propagation Networks

S. Liu, S. De Mello, J. Gu, M.-S. Yang, J. Kautz

Neural Information Processing Systems (NIPS)

Paper:http://ift.tt/2gfQ58C

  • Intrinsic3D: High-Quality 3D Reconstruction by Joint Appearance and Geometry Optimization with Spatially-Varying Lighting

R. Maier, K. Kim, D. Cremers, J. Kautz, M. Niessner

IEEE International Conference on Computer Vision (ICCV)

Paper:http://ift.tt/2y3GkUK

  • A Lightweight Approach for On-The-Fly Reflectance Estimation

K. Kim, J. Gu, S. Tyree, P. Molchanov, M. Niessner, J. Kautz

IEEE International Conference on Computer Vision (ICCV,Oral)

Paper:http://ift.tt/2ggXvZb

  • Mixed-primary Factorization for Dual-frame Computational Displays

F.-C. Huang, D. Pajak, J. Kim, J. Kautz, D. Luebke

ACM Transactions on Graphics (Proceedings SIGGRAPH 2017)

Paper:http://ift.tt/2wi6FKr

  • Dynamic Facial Analysis: From Bayesian Filtering to Recurrent Neural Network

J. Gu, S. De Mello, X. Yang, J. Kautz

IEEE Conference on Computer Vision and Pattern Recognition (CVPR)

Paper:http://ift.tt/2vedsVW

  • GA3C: GPU-based A3C for Deep Reinforcement Learning

M. Babaeizadeh, I. Frosio, S. Tyree, J. Clemons, J. Kautz

International Conference on Learning Representations(ICLR)

Paper:http://ift.tt/2fNAVI5

Code:http://ift.tt/2gIRhD3

  • Pruning Convolutional Neural Networks for Resource Efficient Transfer Learning

P. Molchanov, S. Tyree, T. Aila, T. Karras, J. Kautz

International Conference on Learning Representations(ICLR)

http://ift.tt/2g85QvW

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI



via 量子位 - 知乎专栏 http://ift.tt/2y3xvu4
RSS Feed

RSS5

IFTTT

LangChain 彻底重写:从开源副业到独角兽,一次“核心迁移”干到 12.5 亿估值 -InfoQ 每周精要No.899期

「每周精要」 NO. 899 2025/10/25 头条 HEADLINE LangChain 彻底重写:从开源副业到独角兽,一次"核心迁移"干到 12.5 亿估值 精选 SELECTED 1000 行代码手搓 OpenAI gpt-oss 推理引...