2017年12月8日星期五

刚刚!没参加饭局的马云用iDST的语音技术买了张地铁票,竟然没说唤醒词

撰文 | 王艺


搭地铁,有几个步骤?


你可能需要掏出手机,打开地图软件,搜索到到达目的地的路线后,才能买票进站。有时,哪怕知道终点站,可能也记不清应该搭乘的是几号线。


12 月 5 日,阿里巴巴、蚂蚁金服和申通地铁集团联合推出新一代售票机,可以让乘客用语音交互的形式买票,具有指定站名或票价购票、目的地模糊搜索购票等功能。也就是说,站在机器旁,你只需要告诉它「我要去中山公园」,它就会自动调用云端的高德地图服务,确定目的地最近的地铁站后直接出票。


在上海申通地铁公司,马云亲自体验了「动动嘴」买票乘地铁。申通地铁公司与阿里巴巴联合,正在逐步对上海的自动售票机进行改造升级,并将于明年覆盖上海主要地铁线。



签约仪式现场,图片来自澎湃记者


对阿里巴巴而言,项目意义重大。此前,我们更多听到阿里巴巴在城市道路交通等方面的布局。现在,阿里巴巴通过售票机、闸机、客流预测,开始覆盖智能票务、公共交通管理等,进一步完善其城市大脑的范畴。


当然,这背后仍然少不了达摩院 iDST 的身影。这是上周声学专家、原宝利通(Polycom)声学设计与信号处理首席工程师冯津伟加入阿里巴巴 iDST 语音团队之后,该语音团队又完成的一件大事。作为项目主要负责人,iDST 语音团队负责人鄢志杰认为,地铁智能购票系统所用的多模态交互就是阿里巴巴 iDST 团队对下一代人机交互可能性的一种尝试——你只要走近机器,不需要唤醒,它就会自动与你发生交互。


或许未来就没有唤醒词这个概念了。」鄢志杰说。


更方便的语音购票如何实现?


地铁站人多嘈杂,准确识别语音命令是个挑战,鄢志杰团队把计算机视觉技术融合到语音识别技术中,攻克了嘈杂环境下的远讲降噪问题。


               

实测视频 


他们为系统添加了光学摄像头模块,通过识别机器视角内人员的嘴部动作识别说话人,并判断说话人与机器的距离以及确定拾音角度。这些视觉信号将会与音频信号相融合,通过一个大的麦克风阵列以及配套的软件信号处理器进行抑制干扰与信号增强,最终做到准确拾音。


在语音交互方向上,强噪声、强干扰下的人机交互问题一直都是 iDST 的研究重点。鄢志杰解释说,这些视觉、听觉结合的技术被称为「多模态融合技术」,是人机交互发展的新方向。今年云栖大会上,阿里巴巴宣布成立达摩院,而达摩院的成立初衷之一便是实现下一代人机交互。


目前,以智能音箱、语音助手等语音对话系统为代表的人机交互,最大的局限在于需要唤醒词,且仅限于家居、车载等相对封闭且安静的环境。而下一代人机交互要适用于更多更复杂的场景,地铁购票项目则是阿里巴巴 iDST 团队的第一次试水。


地铁购票是起点,底层技术还会被广泛复制


大约半年前,鄢志杰所在的团队开始孵化这一底层技术的研发,由五个人组成的小分队负责。在这次项目方案中,iDST 内部也有合作,「光学摄像头,是任小枫团队给我们 API 的调用,我们做了多模态整合。」鄢志杰说。


鄢志杰透露,地铁项目给团队带来的挑战是系统稳定性以及快速学习能力。在地铁这样的公共服务设施中,系统需要全天候工作。并且不像互联网云端项目方便修改,地铁项目的修改灵活性要稍差一些。


另外,项目正式上线运营后,大规模的用户涌入,如何识别用户千奇百怪的交互方式也是团队需要面对的难点之一,这需要系统具备很强的快速学习能力,迅速适应用户的自然表达方式。


而这只是项目底层技术——嘈杂环境下远讲降噪技术第一个使用场景,并非针对项目定制。在地铁语音购票之外,它还有很强的普适性。在如机场、火车站、展会、社区、餐厅、商场等开放的嘈杂场景下,该技术都能发挥作用。例如社区问讯系统、电梯广告交互系统、景区导览等。


鄢志杰表示:「这些嘈杂环境是用户生活中最常遇到的,同时从技术层面来说本身又是最难的一类场景。」


阿里巴巴正积极寻找新场景,与合作伙伴一起开发落地途径。鄢志杰表示,团队希望这一技术能走到每一个人身边。「之前我没有见到过哪一家公司能在这么嘈杂的公共环境下做远距离的交互。」鄢志杰说,这是阿里人工智能的底气。


]]> 原文: http://ift.tt/2AFcbdF
RSS Feed

机器知心

IFTTT

如何让一部分人先拆起来?我们和菜鸟网络聊了聊

编辑 | 微胖


中国快递业连续多年强劲增长,短短几年间,中国已经成为全球最大的快递市场,全年包裹达到 300 多亿件。在这一趋势下,未来几年,快递量将从每天 1 亿件发展到每天 10 亿件。


与此同时,中国的劳动力结构、经济成本结构在快速变化。原先靠人力能解决的问题也遇到了瓶颈。


以国内某大型自建物流平台为例,投入数百亿资金,拥有 10 万多名物流员工,但是物流效率依然碰到天花板。该平台负责人曾一度认为人力模式可持续,并有信心可以管理好 100 万员工。但短短一年后,这位负责人不得不面对减少员工数量、发展技术的事实。


随着新零售爆发式增长,消费者对购物体验升级的需求也使得智慧物流势在必行。


近些年来,随着大数据、云计算等技术的成熟,物流技术研发应用有了更好的底层支撑。2013 年 5 月,阿里牵头成立了菜鸟网络科技有限公司,帮助中国物流升级,实现智慧物流:以更高效、更低成本地「实现全国 24 小时送达,全球按 72 小时送达。」


为此,在技术方面,菜鸟网络目前主要在做三件事。第一个是智能化。用最短的路径、以最快的时间将包裹送达给消费者,节省成本,提高消费者体验。


第二个是自动化。一个包裹从商家出来到消费者端,要有十几个人经手,如果都变成机械臂、机器人或是无人机,就能够节约成本,提高效率。


第三个是「架桥修路」的物流基础建设,比如电子面单的普及。


几年来,菜鸟网络的物流云、大数据预测分仓、智能分单、机器人仓群等各种新技术纷纷落地。


17 年财年菜鸟网络共完成了 166 亿包裹(每天约 5 千万个包裹)的配送服务。双十一第一天,菜鸟网络协同的快递企业共发货3.66亿。


近期,菜鸟网络接受了机器之能的采访,谈了谈这家技术驱动型公司在物流智能化、自动化和基础建设等方面的工作。


菜鸟总裁万霖曾说要打造具备全球配送能力的电商物流网络,这样庞大的物流网络在建设过程中需要多大的投入,技术上要解决哪些难题?目前进展如何?


CTO 王文彬(以下简称「王」):阿里正在建设 EWTP(电子世界贸易平台),让「全球买全球卖」成为现实。物流全球运是支撑 EWTP 的基础设施。


今年 9 月底,阿里巴巴和菜鸟宣布将在未来 5 年内投入 1000 亿元,用于建设全球智慧物流网络。从技术上来说,这需要跨越不同国家、不同种族和不同企业之间的数据壁垒,让技术语言成为全球通用的语言。


目前,菜鸟已经与全球的合作伙伴一起,搭建起一张覆盖 224 个国家和地区的物流网络。菜鸟的物流仓储管理系统已经接入西班牙、法国、俄罗斯、德国、日本、澳大利亚等数十个国家和地区的海外仓。在东南亚地区,菜鸟的系统已经与一些国家的海关系统进行连接,实现了订单的即时通关。


早些年物流都在争夺最后一公里,最近两年开始在智能化上打得火热,在您看来,物流业未来的竞争走向会发生什么变化?智能化的实现最终解决的是一个什么问题?


王:未来物流业的竞争肯定是技术的竞争,这将直接决定物流的服务能力和服务质量。物流智能化最终要解决的是货物流通的效率提升和成本优化,要实现人与机器的完美结合,从而解放劳动力,降低物流成本在国民生产总值当中的比例。


随着人口结构的变化,劳动密集型的物流很快就会遇到能力的天花板。只有向技术要红利,物流才能获得更好的服务能力,才能解决未来每天10亿件的天量快递。


如何理解智慧物流?支撑整个智慧物流的最关键的技术是什么?为什么?


王:智慧物流是以技术为核心驱动力的物流模式,并且能把智慧技术广泛运用到全行业。它区别于靠人力密集型和封闭自建的物流模式。智慧物流意味着货物全链路流转是智能高效、协同共享、绿色环保的。


智慧物流的关键技术是算法,而算法迭代关键在于数据的不断连接与共享。只有消除数据壁垒,才能把智慧物流从 IT 时代全面带入 DT 时代。


今年 6 月,菜鸟网络位于广东的一个仓储中心推出了中国规模最大的智能物流机器人仓库。这些机器人可以自动托举货物走动,还能互相避让、排队。目前,菜鸟网络已在广东惠阳、浙江嘉兴、天津武清、武汉黄陂等地方建立多个无人仓,这些仓都已投入实际运营。在菜鸟物流的仓库内,全自动流水线、AGV、机械臂每天都在上演着《机器人总动员》。


在之前的采访中提到菜鸟的机器人矩阵系统对仓库本身的改造小,一个传统的人运作的物流仓库,只需要做很小的改动就可以实现自动化。请问相对于传统的物流仓库,具体做了哪些改造?


菜鸟网络高级算法专家胡浩源(以下简称「胡」):从仓库硬件上来看,仅仅是需要对供电系统进行改造。只要系统成熟,就可以实现快速复制。它的灵活性也非常好,便于迁移和升级。


比如,菜鸟网络在惠阳对机器人仓库做升级,就是由机器人自己完成的。新仓库在完成电力设施后,1 小时内,100 多台机器人就把上百万件商品移到了新库。而且在这个过程中,完整订单还能够正常拣选作业。在过去,这种移库动辄需要半个多月,而且要协调上下游企业,完全停止仓内作业后才能实施。


仓库智能化类型是多元的。有些会采用大型自动化流水线,有些则会采用更有柔性的机器人。具体取决于物流处理场景的不同。


请详细介绍一下捡货机器人矩阵,各种机器人之间是如何配合工作的?


胡:机器人会从仓库、用户、商品、货架类型、业务形态、运行模式等方面,抽取复杂场景中的特征,形成模块化可复制的产品级解决方案。


在所有涉及到分拣库区的业务流程中(包括上架、补货、拣货、盘点、退货等),员工都无需进入分拣库区内部,只需要在工作站等待,系统会自动指派移动机器人将目标货架运到工作站,待员工在系统指导下完成业务后,再将货架送回到分拣库区。


机器人的系统会对接菜鸟研发的仓储管理系统,订单下达后,所有资源调度与业务流程的推进均有两个系统的交互来主导,所有数据流都有系统教会完成创建并维护,无需人工介入。


机器人和系统具备自主学习功能,接受订单后,通过系统选择最优路线驶向存放货品的货架,机器人能灵活适应运行环境、灵活避障绕行,还能根据算法来自主决策优化订单顺序、优化仓库改造,同时提高库存转化率。


据了解,该机器人矩阵的技术核心在于有强大系统算法支撑,能介绍一下这里面的一系列算法吗?这些算法都针对了哪些问题?是否用到了深度学习?


胡:目前菜鸟在广东惠阳仓库启用了一个全国最大的机器人仓库。这里面用到了包括波次产生、任务分配、最优路径规划、交通控制等一些算法。


任务分配算法针对的是当有多个待完成的任务和多个机器人的时候,如何合理地将每个任务分配给对应的机器人,从而实现整体任务完成效率的最优。


最优路径规划针对的是多个机器人在场地内运动时,如何为每个机器人确定运动的轨迹,使得所有机器人都能尽快地到达任务的目的地。


而交通控制算法则是为了防止机器人之间可能的碰撞、防止部分区域出现机器人拥堵。目前我们正在尝试用深度学习结合强化学习来为机器人学习较优的行动策略。


当 AGV 机器人有冲突时,如何设定谁优先?里面用到了哪些算法?


胡:这个可以是规则,也可以根据 AGV 机器人承载的任务属性不同来计算每个 AGV 机器人的价值函数。


例如,AGV机器人上承载的货品或者包裹距离预订出库的截止时间等参数。将这些参数转换为优化问题中的目标函数或者限制条件,再通过组合优化的算法来求解。(算法可以是集中式的也可以是分布式的,例如基于竞价的优化算法)


E.T 物流实验室研发了多少类机器人?能否具体介绍一下每个机器人的用途和研发技术?


胡:菜鸟的技术创新团队与合作伙伴一起,研发以及推动了多类机器人在物流场景中实际应用。包括对仓储拣货、缓存、播种等机器人的物流作业环境进行匹配改善,使得仓库作业从「人找货」变成了「货找人」,效率提升 3 倍以上。


他们也研发了末端配送机器人菜鸟小 G,在过去数个月内都在稳定递送包裹,它能识别周围环境并自主建模,还可以自己搭乘电梯。


菜鸟小 G 在运动规划和轨迹生成这两部分的算法优势有哪些?


资深算法专家陈俊波以下简称「陈」:小 G 机器人已经在阿里园区运行了一年多,日常负责把包裹送到各个员工的工位。除此之外,小 G 以及升级产品小G2代、小G plus还在杭州一家法院、浙江大学等地试运营。

 

1)小 G 不依赖于类似于车道线等现实世界中的结构化数据,因此可以在园区这样没有车道线可以辅助的环境中运行。


2)小 G 的运动规划与控制可以做到非常高的精度与灵活性,例如,在进出电梯的过程中,小 G 距离左右电梯门框小于 10 公分,通常机器人或者无人驾驶汽车在检测到 10 公分内有障碍物时的策略都是进行刹车操作,但小 G 能在如此拥挤的环境中灵活进出。


3)在满足最小转弯半径约束下进行稳定,高效的复杂运动规划.


一台小 G 的成本是多少?这么多小 G, 其日常维护工作怎么做,以后会成为菜鸟的一个产品吗?


陈:菜鸟小 G 的成本远低于同类型的机器人,但其性能的稳定性和灵活性。菜鸟 ET 物流实验室负责小 G 的维护。目前已有不少客户有使用小 G 的意向,但菜鸟研发小 G 的初衷是用于解决物流业的实际问题。


]]> 原文: http://ift.tt/2Bk1HDr
RSS Feed

机器知心

IFTTT

马斯克首次证实特斯拉正在研发AI芯片:用途不限于自动驾驶


在 NIPS 2017 大会的一场活动中,马斯克表示:特斯拉正在研发世界上最好的 AI 硬件!




设计专用的人工智能处理芯片在技术公司中越来越普遍,特斯拉似乎也不例外。据 The Register 和 CNBC 等媒体报道,特斯拉 CEO 伊隆·马斯克昨晚在机器学习会议 NIPS 上提到其定制 AI 芯片,称特斯拉「正在开发专用 AI 硬件,它将是世界上最好的 AI 硬件。」


「我想声明特斯拉对 AI 的态度是认真的,不管是软件还是硬件。我们正在开发定制 AI 硬件芯片。」马斯克说道。


我们之前听到过传闻,说特斯拉在开发自己的 AI 芯片,CNBC 9 月的一篇报道称特斯拉内部有 50 余人参与该项目,包括受人尊敬的业内资深专家 Jim Keller,他曾任职于 AMD 和苹果,2016 年 1 月加入特斯拉任 Autopilot 硬件工程部副总裁。


专用芯片可帮助特斯拉在自动驾驶竞赛中占据上风。目前,特斯拉使用英伟达的显卡来支持其自动驾驶功能,但是定制硬件可以提升性能,允许更快的计算,理论上获取更好的道路安全性。


很多公司竞相采用人工智能新技术,但越来越多的公司正转向定制芯片以突破瓶颈问题。苹果和华为分别有 A11 和麒麟 970;谷歌也自行研发了 TPU 芯片以强化 AI 云服务;并且定制化视觉芯片也出现在了无人机和消费级摄像头上。


定制 AI 芯片或许能够帮助特斯拉更快完成全自动驾驶的目标。昨天的 NIPS 2017 大会的活动中,马斯克雄心勃勃地再次声明两年内实现 L5 级的全自动驾驶(届时人们可以在汽车后座中睡觉)。根据 AI 研究者 Stephen Merity 的推特,马斯克还预测 AI 智能将呈现指数级增长,并在 5 到 10 年内超越人类(尽管大多数专家并不同意)。「特斯拉发布第一辆汽车的时间是 2006 年,我们的产品展示了未来的趋势,」马斯克说道,「但很长一段时间以来汽车行业的高管们没有跟进,『地球扁平论者』在科技界之外广泛存在。」



或许随着自产专用芯片的推出,特斯拉将在自动驾驶汽车产业掌握更多的话语权。 




参考内容:http://ift.tt/2AF1SWW


]]> 原文: http://ift.tt/2AIqhga
RSS Feed

机器知心

IFTTT

清华大学人工智能创新团队在AI对抗性攻防竞赛中获得冠军


清华大学张钹院士带领的人工智能创新团队在 NIPS 2017 AI 对抗性攻防竞赛中获得冠军(指导教师:朱军、胡晓林、李建民、苏航),战胜来自斯坦福、约翰霍普金斯大学等世界著名高校在内的 100 多支代表队,在人工智能技术的鲁棒性和安全性应用方面迈出了重要一步。


以深度学习为代表的人工智能系统近年来在图像分类、目标识别等诸多任务中都获得了突破性进展,但是研究发现深度学习模型在鲁棒性上存在严重的不足,很多在特定数据集上测试性能良好的模型反而会被一些人眼不容易识别的「对抗」样本欺骗,导致出现高可信度的错误判断,这就给未来人工智能技术的应用带来严重的安全隐患,引起了国内外诸多研究机构的广泛关注。


针对这一问题,谷歌大脑(Google Brain)于 NIPS2017 上组织了面向对抗样本攻防(Adversarial Attacks and Defenses)的竞赛。清华大学计算机系博士生董胤蓬、廖方舟和庞天宇(指导教师:朱军、胡晓林、李建民、苏航)所组成的代表队在全部三项比赛任务中(有/无特定目标攻击;攻击检测),全部获得冠军,战胜了包括斯坦福、约翰霍普金斯大学等世界著名高校在内的 100 多支代表队,在人工智能模型的鲁班性和安全性应用方面迈出了重要一步。


对抗样本是指攻击者通过向真实样本中添加人眼不可见的噪声,导致深度学习模型发生预测错误的样本,如下图所示:给定一张图片(雪山或河豚),攻击方给图片添加了微小的扰乱,尽管人眼很难发觉,但是模型却高概率的将其误分(狗或螃蟹)。



对抗样本示例,左列为真实样本,中间列为噪声,右列为对抗样本。


随着深度学习在各个领域发挥着日益重要的作用, 防止对抗样本对深度学习系统的干扰、提高模型的鲁棒性和可靠性成为关键的研究课题, 特别是在一些对于可靠性要求很高的应用领域, 例如自动驾驶、医疗、金融、安全等。


正是由于对抗样本具有重要的学术研究和实际应用价值,谷歌在 NIPS2017 上组织了首届对抗性攻防竞赛,旨在推动此领域的发展。比赛分为三个项目,包括无目标地生成对抗样本(分类错误即可)、有目标地生成对抗样本(分类错误为指定类别)和防御对抗样本。比赛采用对抗式模式,通过攻击者和防守者互相对抗,计算攻击和防御的成绩。


清华大学团队在全部三个项目中取得了第一名的成绩,并在有目标攻击和防御两个项目上取得了远超过第二名的得分。在比赛中,该团队提出了基于动量的迭代式攻击方法和高层特征指导的降噪器,展示出了很好的攻击和防御效果,为此领域的发展做出了突出的贡献,为人工智能系统在实际应用中的鲁棒性和安全性检验提供了新的验证基准。技术细节在后续的报道中会进一步跟进。


清华大学团队部分成员与竞赛组织者 Ian Goodfellow、Alexey Kurakin 的合影


NIPS 是机器学习领域的顶级国际会议,于 12 月 4 日-9 日在美国洛杉矶的长滩举行,该团队今年有 4 篇论文被录用。至今,该团队已经连续 8 年均有论文在 NIPS 发表。




]]> 原文: http://ift.tt/2iJxHpu
RSS Feed

机器知心

IFTTT

10 大在线免费深度学习课程

我爱学习,学习使我快乐~


现在网络上有大量深度学习在线课程,Edgy Lab 为大家找到了 10 大免费课程,帮助大家自学,助力职业生涯。他们研究了顶尖大学和技术公司开设的深度学习 MOOC 课程,包括针对初级、中级和高级学习者的课程,覆盖深度学习的大部分概念(从最基础的到最前沿)。不过这些课程都需要一些先决条件:了解数学基础知识、知道如何使用 GitHub 库,以及掌握编程语言,如 Python。以下是课程列表。


1. 深度学习(Deep Learning by Google)


谷歌在在线课程平台 Udacity 上发布了深度学习专门课程,地址:http://ift.tt/2AFQn1k


该课程持续 12 周,适合中级开发者,讲授深度学习的多方面知识,如如何构建和优化深度神经网络。该课程由谷歌首席科学家、谷歌大脑团队技术负责人 Vincent Vanhoucke 开发。


2. 神经网络和深度学习(Neural Networks and Deep Learning)


这门课程由斯坦福大学和 deeplearning.ai 开设,授课人为斯坦福大学教授、Coursera 创始人吴恩达,课程通过 Class Central 和 Coursera 平台发布。

  • Class Central:http://ift.tt/2ivRUhK
  • Coursera:http://ift.tt/2hNem9i


这门课程主要讲授深度学习的基础知识。课程结束时,你将掌握如何构建、训练和管理深度神经网络,以及如何在自己的项目中使用深度神经网络。


3. 算法:设计和分析(Algorithms: Design and Analysis)


算法是深度学习和计算机科学的核心,这门斯坦福大学开设的课程将带你了解算法。


这门课程适合有点编程经验的学习者,课程第一部分讲述「Big-oh」符号、数据排序和搜索、分治法(divide and conquer method)、随机算法、数据结构和图基元。


学习完第一部分之后,可以注册学习第二部分,更深入地学习算法。


4. 机器学习(Machine Learning)


这门课程持续 14 周,每周 8-10 小时,由佐治亚理工学院开设。


这门课讲授监督和无监督机器学习、随机搜索算法、贝叶斯学习方法、强化学习和其他机器学习概念。


5. 改善深度神经网络(Improving Deep Neural Networks)


这是斯坦福大学和 deeplearning.ai 开设的另一门 MOOC 课程,为期 3 周。这门课程讲授深度神经网络的超参数调整、正则化和性能优化。


课程免费,不过如需证书需要付费。


6. 深度学习讲座(Deep Learning Lecture)


Nando de Freitas 是英属哥伦比亚大学的机器学习教授。Freitas 在 YouTube 上发布了一系列深度学习讲课视频,地址:https://www.youtube.com/playlist?list=PLE6Wd9FR—EfW8dtjAuPoTuPcqmOV53Fu。现有不同长度的 16 个视频。


他还发布了一系列适合本科生的机器学习讲课视频,共 33 个。地址:https://www.youtube.com/playlist?list=PLE6Wd9FR—Ecf_5nCbnSQMHqORpiChfJf。


7. 机器学习神经网络(Neural Networks for Machine Learning)


这门课程由多伦多大学开设,适合具备 Python 基础知识的中级学习者。


通过 16 周的学习,你可以了解深度神经网络及其应用,如语音识别、目标识别、图像分割等。


本课程可免费学习,证书需付费。


8. TensorFlow 上的深度学习创新应用(Creative Applications of Deep Learning with TensorFlow)


这门课程在 Kadenze Academy 平台发布,讲授构建不同算法所需基础知识,算法包括:深度卷积神经网络、变分自编码器、生成对抗网络和循环神经网络。


了解如何构建深度学习网络之后,你可以进一步学习该课程,了解创新应用。


9. 深度学习简介(Introduction to Deep Learning)


这门课程由 MIT 发布,为期一周。该课程介绍深度学习技术及其部分行业应用,讲授内容包括翻译算法、图像识别、目标识别、博弈等。


10. 自动驾驶汽车中的深度学习(Deep Learning for Self-Driving Cars)


这门课程也由 MIT 开设,专注于自动驾驶。这门课程适合初学者,不过对高级学习者也有用处,介绍了自动驾驶汽车和半自动驾驶汽车中的深度学习系统。


这门课有 5 个视频讲座,每个视频讲解一个自动驾驶汽车中的深度学习方法。


]]> 原文: http://ift.tt/2A7SVVa
RSS Feed

机器知心

IFTTT

结合生成式与判别式方法,Petuum新研究助力医疗诊断

在过去一年中,我们看到了很多某种人工智能算法在某个医疗检测任务中「超越」人类医生的研究和报道,例如皮肤癌、肺炎诊断等。如何解读这些结果?他们是否真正抓住医疗实践中的痛点、解决医生和病人的实际需要? 这些算法原型如何落地部署于数据高度复杂、碎片化、异质性严重且隐含错误的真实环境中?这些问题常常在很多「刷榜」工作中回避了。事实上,从最近 IBM Watson 和美国顶级医疗中心 MD Anderson 合作失败的例子可以看出,人工智能对医疗来说更应关注的任务应该是如何帮助医生更好地工作(例如生成医疗图像报告、推荐药物等),而非理想化地着眼于取代医生来做诊断,并且绕开这个终极目标(暂且不论这个目标本身是否可行或被接受)之前各种必须的铺垫和基础工作。因此与人类医生做各种形式对比的出发点本身有悖严肃的科学和工程评测原则。这些不从实际应用场景出发的研究,甚至无限放大人机对战,对人工智能研究者、医疗从业者和公众都是误导。
知名人工智能创业公司 Petuum 近期发表了几篇论文,本着尊重医疗行业状况和需求的研究思路,体现出了一种务实风格,并直接应用于他们的产品。为更好地传播人工智能与医疗结合的研究成果,同时为人工智能研究者和医疗从业者带来更加实用的参考,机器之心和 Petuum 将带来系列论文介绍。本文是该系列第四篇,介绍了使用机器学习方法基于实验室检测数据协助医疗诊断的研究成果。


误诊是指诊断决策不准确,是一种时有发生的情况。每年都有大约 1200 万美国成年人经历误诊,其中有一半可能造成伤害。实际上,有多达 40500 成年病人在重症监护病房(ICU)中死于误诊。误诊的一大主要原因是对临床数据的次优解读和使用。如今,医疗数据包含了实验室检测数据、生命体征、临床记录、药物处方等等,数据之多有时让医生难以应付。在各种各样的临床数据中,实验室检测数据发挥了重要的作用。据美国临床实验室协会(American Clinical Laboratory Association)称,实验室检测数据在诊断决策中的重要程度超过 70%。不幸的是,全面理解实验室检测结果并发现其中潜藏的临床应用价值却并非易事。对实验室检测数据的错误解读是诊断过程中出问题的主要地方。


实验室检测数据为何难以理解?原因有两方面。首先,缺失值是普遍存在的情况。在某个时间点只仔细检查一小部分实验室检测数据的情况很常见,此时其它大多数监测数据都被忽略了。这些数据的缺失让医生无法了解病人临床状态的全面图景,从而得到次优的决策。其次,这些实验室检测数据的值具有复杂的多变量时间序列结构:在入院期间,在某个特定时间要检查多个实验室检测数据以及同一种检测可能需要在不同时间点检查多次。这些多变量时间数据在时间和检测维度上都表现出了很复杂的模式。了解这些模式对诊断而言具有很高的价值,但在技术上却颇具难度。


在这项工作中,我们研究了如何利用机器学习(ML)的能力来自动从复杂的、有噪声的、不完整的和不规则的实验室检测数据中自动提取模式,从而解决上述问题并得到一种用于协助诊断决策的端到端诊断模型。在实验室检测数据基础上用机器学习方法执行诊断的研究已有先例。在这些方法中,处理缺失值、发现多变量时序中的模式、预测疾病这三大主要任务通常是分开执行的。但是这三大任务是紧密关联的并且可以互相提供帮助。一方面,更好地填补缺失值可以让我们发现更有信息的模式,这能提升诊断的准确度。另一方面,在模型训练期间,对诊断的监督可以为模式发现提供指导,这又能进一步影响对缺失值的填补,从而可以调整被发现的模式和被填补的值,使之适用于诊断任务。分别执行这些任务无法考虑到它们的协同关系,从而会得到次优的解决方案。之前的研究还存在另一个局限:它们往往是在一种判别式结构(discriminative structure)中提出的——从原理上看,这种结构无法很好地处理缺失值问题和学习可泛化的模式。


论文:结合生成式和判别式学习,根据实验室检测数据得出医疗诊断(Medical Diagnosis From Laboratory Tests by Combining Generative and Discriminative Learning)




论文链接:http://ift.tt/2A4KhGF


摘要:计算表型研究(computational phenotype research)的一个主要目标是执行医疗诊断。在医院里,医生依靠大规模临床数据来进行诊断决策,其中实验室检测数据是最重要的资源之一。但是,实验室检测数据的纵向性和不完整性给这种数据的解读和应用带来了显著的挑战,这可能会导致人类医生和自动诊断系统得出有害的决策。在这项工作中,我们利用了深度生成模型来处理复杂的实验室检测数据。具体而言,我们提出了一种端到端的架构,其涉及到一个用于学习稳健且可泛化的特征的深度生成变分循环神经网络和一个用于学习诊断决策的判别式神经网络模型,而且这两个模型的训练是联合进行的。我们的实验所采用的数据集涉及到 46252 个病人以及用于预测 50 种最常见诊断的 50 种最常用检测。实验结果表明我们的模型 VRNN+NN 的表现显著(p<0.001)超过了其它基准模型。此外,我们还表明:比起通过纯粹的生成模型所学到的表征,通过联合训练学习到的表征具有更丰富的信息。最后,我们发现我们的模型填补缺失值的方式好得让人惊讶。


贡献


在这篇论文中,我们开发了一种端到端的深度神经网络来根据实验室检测数据执行诊断。我们的模型将三种任务无缝地整合到了一起并能联合执行它们——这三种任务分别是填补缺失值、发现多变量时序数据中的模式和预测疾病。我们的模型结合了机器学习领域两种主要的学习范式:生成式学习和判别式学习;其中生成式学习组件被用于处理缺失值和发现稳健的且可泛化的模式,而判别式学习组件则被用于根据生成式学习过程中发现的模式来预测疾病。我们在 46252 份 ICU 病人就诊数据上对我们提出的模型进行了评估,结果表明我们的模型实现了(1)比基准模型显著(p<0.001)更优的诊断表现,(2)对缺失值的更好填补,(3)在实验室检测数据上的更好的模式发现。


方法


数据预处理


本研究所用的数据来自公开可用的 MIMIC-III。它来自 46252 位病人的实验室检测结果,其中包含住院记录和门诊记录。每个住院时间阶段都有 1 到 39 个对应的 ICD-9(国际疾病分类,第九版)编码,本研究只考虑了其中主要的诊断。这个数据集共有 2789 种不同的诊断和 513 种各不相同的实验室检测。因为某些诊断和检测是相当罕见的,所以我们将我们的研究限制在了 50 种最常见的诊断和 50 种最常用的实验室检测上。我们以每天的日期为标准对检测结果进行了分组,并最终得到了 30931 个住院记录的时间序列,其中每一个都标注了一种疾病的 ID,分别是从 0 到 49。这些时间序列的长度从 2 到 171 不等,而我们关注的是最近的 100 天。图 1 给出了这 50 种疾病的 ID 所对应的样本的数量。我们对该数据集进行了 5 次随机切分,每一次我们都按特定比例将该数据集分成了训练集(Train)、开发集(Dev)和测试集(Test),它们的比例为 65%:15%:20%。因此,这三个集合中的样本的数量分别为 20105、4640 和 6186。



图 1:疾病 ID 对应的样本的数量


有些检测数据加了离散的类别值,比如「ABNORMAL(异常)」和「NORMAL(正常)」,我们将这些类别换成了整型值,比如用 0 表示「ABNORMAL」,用 1 表示「NORMAL」。检测结果用 Z 归一化(Z-normalization)进行了归一化处理,即每个检测值都减去均值,然后再除以标准差。注意,病人不会每天把每种检测都做一遍,所以我们的数据中缺失值是很普遍的。图 2 给出了一个病人的实验室检测记录的例子。可以看到其中有大量缺失值。对整个数据集进行简单的统计后发现,值的平均缺失率大约为 54%,也就是说在每天的记录中,50 项实验室检测中平均仅有 27 项有值。在我们实验中,我们起初都用 0 来填补这些缺失值。在应用了 Z 归一化之后,这些值的均值都变成了 0。所以零填补就等同于均值填补。此外,因为我们的模型处于神经网络框架内,所以零输入不会给计算引入额外的偏差。注意,在基准模型中,这种零填补方法表现得像是缺失值问题的解决方法,而在我们的模型中,它表现得像是缺失值的指示器,然后这些缺失值会由深度生成模型进行进一步的处理。



图 2:一位病人的实验室检测记录示例。y 轴对应于我们所用的 50 项实验室检测。x 轴表示记录的时间。绿点表示有值,否则就缺失值。


模型架构


我们在本研究中提出了两种模型,分别表示为 VAE+NN 和 VRNN+NN。其中前者是一个静态模型,可以证明深度生成模型的贡献;后者则是一个时间模型,是对深度生成学习方法的延展,从而可学习长期时间依赖(long-term temporal dependency)。



图 3:我们的模型的架构:(a)VAE+NN 的架构,(b)VRNN+NN 的架构


VAE+NN


其中 VAE(变分自编码器)是用于处理缺失值和发现模式的生成模型,标准的神经网络(NN)则被用作分类器,如图 3(a) 所示。


VRNN+NN 


其中 VRNN(变分循环神经网络)用于生成按顺序排列的隐藏特征,NN 模型则会根据这些隐藏特征的平均来得出决策,如图 3(b) 所示。


基准


为了进行比较研究,我们构建了几种基准模型,分别表示为 NN、AE+NN、RNN+NN。其中 NN 和 AE+NN 用于与 VAE+NN 模型进行比较,我们想知道在表征单个特征向量时深度生成模型是否能有更好的表现。RNN+NN 模型与之前研究中的模型结构类似,它被用于与我们的 VRNN+NN 模型进行比较。



图 4:基准模型的模型架构:(a)NN 的架构,(b)AE+NN 的架构,(c)RNN+NN 的架构


NN


NN 模型就是一个简单的多层感知器(MLP),如图 4(a) 所示。


AE+NN 


AE+NN 基准模型基于标准的自编码器,如图 4(b) 所示。AE 与 VAE 类似,但其结构是确定性的,所以生成能力更差。在这个模型中,我们还将 AE 和 NN 的损失结合到了一起。我们使用了均方误差(MSE)作为 AE 的训练目标。


RNN+NN


RNN+NN 模型如图 4(c) 所示。在这个模型中,RNN 处理原始的时间特征,隐藏状态的平均被用作 NN 的输入。


实现细节


在我们的实验中,模型是在 TensorFlow r1.0 上实现的。所有的 ϕ_τ和 ϕ_d 都是带有一个隐藏层和 ReLU 激活的前向神经网络。隐藏层的大小设置为 64。我们使用了 Adam 作为优化器,其中学习率设置为 0.0005,学习率衰减为 0.99。权衡(trade off)参数 η 在所有实验中都设置为 0.5。


结果


表 1 给出了三组实验的诊断表现。上面一组值是不同模型在诊断任务上的表现,是根据 F1 值和 AUC 的不同变体测定的。此外,为了测试联合训练是否能比无监督生成模型得到更好的表征,来自 VAE、VAE+NN、VRNN 和 VRNN+NN 的表征被用来训练了一个用于诊断决策的新模型。表 1 中间一组数据给出了其结果。最后,为了在缺失值处理方面比较我们的 VRNN+NN 模型和一些启发式填补方法,我们调查研究了四种填补方法:「zero」是基准模型的默认方法,「last&next」、「row mean」和「NOCB」是三种最广为人知的填补方法(据研究 [32]):「last&next」是取前一个已知值和后一个已知值的均值;「row mean」是取前一个病人和后一个病人的均值;「NOCB」是填补反向遇到的下一个观察



表 1:三组诊断表现;所有结果都以「均值±标准差」的形式给出


为了评估表 1 中的结果是否可靠,我们应用了配对 t 检验(paired t-test)来检查不同模型的表现差异是否具有统计显著性。结果在表 2 中给出。


 


表 2:在诊断表现上的配对 t 检验的 P 值。注:(p<0.001),(p<0.01),(p<0.05)


因为深度生成模型可以重新构建输入数据,所以我们推测我们的 VRNN+NN 模型有更好的填补缺失值的潜力。为了测试这个推测,我们首先随机丢弃了原始数据中 10% 的值,然后使用训练后的 VRNN+NN 来填补这些故意丢弃的值。结果用 MSE 给出,如表 3 所示,其中也给出了启发式填补方法的 MSE 值。另外也给出了这些方法的配对 t 检验结果。



表 3:左部分是不同填补方法的填补误差;右部分是配对 t 检验得到的表现比较。注:(p<0.001),(p<0.01),(p<0.05)


扩展阅读



]]> 原文: http://ift.tt/2A5Mjqh
RSS Feed

机器知心

IFTTT

长文回顾NIPS大会最精彩一日:AlphaZero遭受质疑;NIPS史上第一场正式辩论和LeCun的激情抗辩/据理力争;元学习&深度强化学习亮点复盘。

机器之心原创

机器之心海外部

作者:Tony Peng、Alex Chen、Qintong Wu、之乎


美国时间周四,NIPS大会走完了日程的一半。工业界的众多公司搬东西撤出了展览会场,受邀演讲也全部结束。之后亮点除了当地时间周五周六的Workshop以外,就是周四下午的四场重要的研讨会——从元学习和深度强化学习,到DeepMind刚刚公布的AlphaZero,以及Yann LeCun参加了NIPS史上第一次辩论,一天的精彩内容尽在此文中。



Kinds of Intelligence:Alpha Zero成全场焦点,认知科学大牛唱反调

Kinds of Intelligence主要讨论了实现智能的多种途径,吸引了众多参会者前来。不少生物界、心理学界和认知科学界的专家分享了人工智能以外的研究。


DeepMind的CEO Demis Hassabis也是此次研讨会的嘉宾。Hassabis上台时,现场雷动。诺达的会议大厅坐无缺席,连走道上都是参会者,逼得保安不得不过来安排下秩序。学术圈的大会热捧工业界的新星,也只有DeepMind能享受这番待遇。



Demis Hassabis

周二,DeepMind公布了其围棋程序的最新迭代AlphaZero。和AlphaGo Zero一样,AlphaZero不需要人类的知识,完全靠自我对弈的强化学习,从零开始。不同的是,AlphaZero拥有更强大的泛化能力,经过不到 24 小时的训练后,Alpha Zero可以在国际象棋和日本将棋上击败目前业内顶尖的AI程序(这些程序早已超越人类世界冠军水平),也可以轻松击败训练 3 天时间的 AlphaGo Zero。


Hassabis先介绍了DeepMind和AlphaGo的发展历程,然后着重介绍了AlphaZero是怎么从围棋泛化到国象和日本将棋上。


目前最前沿的国象AI程序依然使用Alpha-Beta搜索和启发算法。2016年TCEC世界冠军Stockfish是这个领域最好的AI程序,但Stockfish依然需要大量手动调整,包括棋局表征、搜索、落子顺序、评估以及残局库。AlphaZero呢?只需要基于自我对弈强化学习加自我对弈蒙特卡洛树搜索即可。同时,Alpha Zero可以完全在这三种不同的棋类游戏中泛化,三种棋类背后的算法和超参数完全相同。


AlphaZero的战绩是显著的:对阵国象AI程序Stockfish是28胜72平0负;对阵将棋顶尖程序Elmo是90胜2平8负;对阵训练三天的AlphaGo Zero是60胜40负。


Hassabis提到了有关AlphaZero的几个有趣的事实:下棋的每个决定都需要一定的搜索量。人类一般是10次,目前最先进的国象程序是1000万次,AlphaZero则是10000次,介于两者之间;AlphaZero下国象中,摈弃了许多人类的招数,比如Kings Indian Defence、French Defence和Queen Pawn Game,这三种都是很常见的国象开局方式;AlphaZero偏爱长期位置牺牲(long-term positional sacrifices),为了最后的赢面在前期牺牲掉部分棋子。


拥有更好泛化能力的AlphaZero让很多人相信人类离通用人工智能(AGI)又进了一步。然而,其他几位受邀嘉宾并不买账。东海岸的两位认知科学大牛——纽约大学的Gary Marcus和来自麻省理工大学的Josh Tenenbaum都不认为AlphaZero代表了AGI的研究方向,


Tenenbaum认为智能不仅仅是将一个公式计算的特别好,而是思考到底解决什么样的问题。他提出了一个非常有意思的想法:建造一个像小孩子一样学习的机器。


Tenenbaum向观众展示了一个视频:一个小孩看到大人双手捧着书,在一个关着门的书橱前踱步,小孩很自觉地走上前把门打开。这样的理解能力和操作能力,是机器做不到的。要建造这样的机器,需要三个步骤:建立一个具备常识的核心;用这个核心学习语言;用语言学习任何东西。


之后登场的Marcus,更是圈内有名的"辩论手"(详细参见他十月和Yann LeCun的争论)。此次演讲,他还专门为了AlphaZero做了篇PPT:AlphaZero只适用于完美信息的游戏博弈中,但并不适合通用人工智能。


Marcus提出了一个有关"认知"的公式:Cognition=f(a, k ,e),其中a代表先天的算法,k代表先天知识,e代表经验。这个公式同样可以适用于Alpha Zero。完美信息棋盘博弈获得成功的条件是棋盘规则+经过人类编程的棋局表征,a则是强化学习+蒙特卡洛树搜索+基于经验得到的超参数,即使没有了先天知识k,AlphaZero同样获得了成功。



但无论是围棋、将棋、国象,都和生活是不一样的:棋局是完美信息,但生活是不完美信息;棋局可以被完美模拟,生活却不可能;棋局里可以有无限的数据,而生活里的每个事物的数据量都不多;棋局里唯一要紧的是盘面状态,但生活里,什么都有要紧。


所以,在一个开放的世界里,先天的算法和先天的知识需求量都会增加,就不是Alph Zero可以应付的了。


另一个Marcus从DeepMind中得到的结果是,即使是在完美信息的游戏中,一些先天的结构依然不可缺少,比如蒙特卡洛算法。所以,他强调AlphaGo Zero以及AlphaZero不是所谓的"零知识"。这里的"零知识"只针对专有领域知识(domain knowledge),不包括像蒙特卡洛树搜索这样经过人类多年研究的算法。


最后,越说越激动的Marcus大声疾呼:"生活不是一场Kaggle竞赛!"


"在生活中,没有东西是被整齐的预先包装好的(像Kaggle里的数据集那样),没有人能保证你昨天的挑战和今天的挑战一样,你希望学习的是可以重新使用的技能和知识,并且可以用在未来的挑战里,而实现这种可重用性才应该是大家关注的重点。"


除了有关AlphaZero的争论外,这场研讨会也提供了其他研究人工智能的思路。


来自加州伯克利大学心理学和哲学教授Alison Gopnik倡导将儿童的学习方法与人工智能相结合。Gopnik是第一位将概率模型应用于儿童学习的认知科学家,特别是使用因果贝叶斯网络框架。 在过去的15年中,她将计算模型应用于早期认知发展的许多领域,包括物理和社会概念的学习。


阿兰图灵在1950年就说过,"与其尝试模拟成人的大脑,为什么不直接创造一个模拟小孩的大脑。" Gopnik在研究中发现,一个四岁的小孩可以理性地从条件概率推断复杂的因果结构;在面对新证据后,会整合和推翻先前的知识;推断出未观察过的结构;推断出抽象的分层超假设;在物理、生物和心理学领域推断出理论知识。


近几年,越来越多的研究人员发现年级小的孩子更具有探索性。Gopnik总结了小孩子的学习特点,比如具有很强的求知欲而不是奖励机制,这些发现都对人工智能研究带来了一些新的方向和思考。


Interpretable Machine Learning :一场关于机器学习可解释性的辩论


从左到右:Patrice Simard,Kilian Weinberger,Yann LeCun

近年来,复杂的机器学习模型(如深度神经网络)在图像识别、语音感知、语言建模和信息检索等广泛的应用方面取得了出色的性能。人们对解释由这些模型习得的表征及决策的兴趣逐渐爆发出来,也催生了在可解释机器学习,因果关系,安全AI,社会科学,自动科学发现,人机交互(HCI),众包,机器教学和AI道德等方面的研究。这场可解释机器学习的研讨会的目的在于将这些密切相关但往往被孤立的主题联系在一起。


可解释的机器学习,使我们可以参考模型的预测结果,还有可能通过理解模型的结构更好地理解命题本身,例如犯罪预测及公共政策制定等;同时,理解模型本身又可以让我们可以建立更准确的预测模型;在自动驾驶等领域,我们需要超越现在的"黑箱模型"的可解释模型来避免罕见但代价惨重的错误。



NIPS可解释机器学习研讨会包含6个演讲,以及两场讨论,并公开宣布了一场可"解释挑战赛"。(http://ift.tt/2yOU8lP


上半场的演讲主要就如何进行可解释机器学习研究的方法展开,两位演讲者介绍了因果概率关系,以及一种结合物品检测和CNN图像特征,生成可理解的物品图像内容。


在可解释挑战赛公布之后进行的第一场小组讨论以十分平和的方式展开,Hanna Wallach, Kiri Wagstaff, Suchi Saria, Bolei Zhou和Zack Lipton 探讨了再进行可解释研究中常见的问题,以及需要注意的事项,有趣的是在讨论的最后,嘉宾们达成了一致,"明确需要进行解释的对象是谁"非常重要。


在 NIPS 2017第四日下午的可解释机器学习专题研讨会的最后一个小时,一场辩论点爆了现场的气氛,并吸引了大量的参会人员现场围观。毋庸置疑,这是第四天的Symposium中最火爆的一场。


这场NIPS 有史以来第一场辩论的主题为 "可解释性在机器学习中是必要的"(Interpretable is necessary in machine learning)。


正方一辩:微软研究院杰出工程师 Patrice Simard


正方二辩:微软研究院高级研究员 Rich Caruana


反方一辩:Facebook 人工智能研究部门(FAIR) 负责人 Yann LeCun


反方二辩:康奈尔大学副教授 Kilian Weinberger


本次辩论由正反方分别陈述各自观点拉开序幕:


正方一辩 Rich Caruana


Caruana举了一个例子:医院用深度神经网络来决定肺炎病人的住院顺序,死亡率高的入院。但是,模型通过某项数据发现,患哮喘的人肺炎的死亡率比较低,因为他们经常会去医院配药、做诊断等等,所以很多病情发现的早。那么按照这个模型的设定,同样患肺炎的人,患哮喘的人是不是应该排在队伍的后面。


Caruana想用这个例子说明,社会中很多基于数据的模型做决定,但往往没有正确地评估这个模型是否预测出正确的结果。解决的方法有,就是可解释模型。通过在可解释机器学习上的研究,他们发现不只是哮喘,心脏病也会降低肺炎病人的死亡率,道理是一样的。如果不解决可解释性,根本无法预料这些问题的存在。


反方一辩 Yann LeCun


LeCun的观点非常直接:世界上有这么多应用、网站,你每天用Facebook、Google的时候,你也没有想着要寻求它们背后的可解释性。人类的大脑有限,我们没有那么多脑容量去研究所有东西的可解释性。有些东西是需要解释的,比如法律,但大多数情况,它们没有你想象中那么重要。


LeCun也举了个例子:他多年前和一群经济学家做了一个模型预测房价。第一个用的简单的线性预测模型,经济学家也能解释清楚其中的原理;第二个用的是复杂的神经网络,但是效果比第一个好上不少。结果,这群经济学家想要开公司做了。你说他们会用哪一个?


LeCun表示,任何时候在这两种里做选择,所有人都会选择效果好的那一个。很多年里,我们不知道药物里有什么成分,我们一直在用。最后,LeCun认为,整个神经网络是黑箱的故事,它并不是黑箱,你可以看到所有的参数,你可以做灵敏度分析。我们常常被解释性所催眠,因为它让我们放心。


正方一辩 Patrice Simard


Simard的主要意思是说到机器学习,就应该有一个准确的定义。机器学习的作用是从坏的函数中找到好的函数,我们可以把这个好函数的集合称为假设空间(hypothesis space)。很多人觉得深度学习的假设空间是固定的,但假设空间可以变得非常非常大(因为我们可以定义无限多的问题)。在我们逐步学习了文字,学习语言,学习了各种各样的东西的过程中,假设空间也在不断增加,这种小的积累过程让学习变的更容易,这可以被称为结构可解释性。


Simard的观点是,不关心可解释性的人应该停止来NIPS大会解释最新的假设空间。 而关心解释性的人可以记录假设空间的进化,让学习变得可以被解释,变得更容易。


反方二辩 Kilian Weinberger


在现实中,可解释性并没有那么重要。人人都在用很复杂的东西,比如很少有人能够完全理解英特尔的i7芯片的工作原理,但大家都很自然地用,而且很好用。机器学习也是这样。 在一些情况下人们会需求可解释性:一个是需要了解数据,神经科学家和生物学家需要进行研究,但他们其实需要的是敏感性分析 (sensitivity analysis)。他们只是需要知道什么特征会如何影响输出结果。另一个是机器学习debugging,但这个并不会帮助人们理解机器学习是如何运作的。最后一个是可靠性(accountability)。不懂的人关心可解释性是因为信任度(trust),正如80年代时人们发现乘坐的是女飞行员驾驶的飞机时会下飞机。30年之后,人们也会觉得害怕自动驾驶汽车的人是很奇怪的。


Kilian问现场听众一个问题 —— 假设你要做心脏病手术:医生做手术有10%的死亡率;而手术机器人只有1%的死亡率。当医生出错时,医生可以理解自己犯了什么错而机器不会。这种情况下,是选让医生动手术还是手术机器人? 不出所料,大部分现场听众都选择了使用手术机器人。


在正反双方进行完观点陈述后,辩论进入第二个环节:正反双方互相答辩。双方就各自的观点进行了充分且辩证的讨论,双方探讨内容包括但不局限于,因果关系概率的重要性,测试的可靠性问题,结果可复制性问题等。


在辩论的最后一个环节,每位选手要求对对方辩题陈述一个自己认为最好的观点:


Yann LeCun:在机器拥有意识之前,机器会一直犯错。在对部署系统进行测试的时候尤其需要注意,不能忽略常识相关的测试场景。


Patrice Simard:过去神经网络不好用是因为数据不够多,但越来越多的数据会让模型的各种性能,包括可解释性也变得更好。


Kilian Weinberger:当人看到机器学习算法进行决策的时候,我们会用人的思维去理解机器;可解释性可以让我们理解机器的运转方式与人不一样。


Rich Caruana :人们介意的是准确度,而并不是很介意是否可以解释,可能只有科学家会为了完善理论而倾向可解释的模型。



Meta Learning:四大门派的观点冲突和Schmidhuber的骄傲:


Meta-learning 专题研讨会开始于对当前深度学习模型复杂度的探讨:超参数的调试与网络结构直接决定了训练的最终效果,但是这两部分的选择随着深度学习的发展变得愈加繁重。想象一下从相对简单的5层LeNet到异常复杂的GoogleNet,虽然模型的结果得到了令人惊讶的提升,但是其复杂的程度不再是几个工程师或是学者可以轻易接受的。Meta-learning正是对这样的关键问题进行的研究,尽管目前学界并未在Meata-learning的定义上达成一致,但是无论从何种角度出发最终的目标均是一致的:成熟的Meta-learning方法可以减轻工程师和学者在应用与研究过程中对模型调试的压力,从而将精力集中在解决主要问题上。本次研讨会从以下4个角度出发,对未来Meta-learning的发展进行探讨。


Evolving Optimization 主张学习算法的结构是最为重要的研究方向,因此这一流派认为对于任意的学习问题,主要的学习框架应由人来构建,而其余的任务则交给计算机来完成。事实上,当我们回顾所有成熟的工程问题时,我们会发现人们在解决这些问题时只需要将时间与精力投入在高层次的框架设计上,其中的细节均由计算机依照优化的目标迭代设计。为什么在机器学习的问题上我们还不能达到这样的程度呢?被广泛接受的说法是通用的机器学习算法的搜索空间巨大,在有限的时间与资源下难以寻找到最优的方法。正是针对这一问题,Evolving 流派认为从遗传的角度来寻找构建Meta-learning系统是合适的。


Bayesian Optimization 认为在学习过程中(Hyperparameters)对超参数的调整效率是极低的,且代价是极为昂贵的。考虑(Model Selection)模型选择的问题,研究者根据有限的数据反复尝试不同的参数组合去选择在当前数据集支撑下的最优模型,如果不考虑根据常识经验得到的通用设置,得到最优解的时间显然是随着超参数数目指数级增加的。通过 Bayesian Optimization 的方法,同时进行 exploration 和 exploitation,寻找最优参数的过程将有可能得到加速。值得一提的是,使用 Bayesian Optimizaiton 理念的 AutoNet 工具包是第一个在深度学习竞赛中获胜的 AutoML 工具包。


Gradient Descent 方面认为 Meta-learning 可以有三种方法实现: 1> Model Based, 2> Metric based, 3> Optimization Based。在目前的研究中,这三种方法并没有优劣之分,各有千秋。同时,优秀的学习被定义为成功地融合学习算法结构、优化学习所需要的数据以及优化方法的细节,缺少任一项学习的效果均会大打折扣。Meta-learning 应当被定义为从通用的学习目标开始,收到特定的(设计好的)影响后逐渐变为专精的学习过程。而真正的端到端学习则是机器具有能力计算并学习任意的模型,从而有目的的解决不同问题。


Reinforcement Learning 认为在学习中要解决特定的问题,则必须在学习之前获得足够正确的先验知识。这一点明显的反映在奖励函数(Reward Function)的设计上,一旦奖励函数被正确的设计,整个学习过程并不需要过多的人为干预。于是,能否正确的建立关于学习的模型成为了Meta-learning的关键。设计奖励函数的做法,往往也被称为引入inductive bias,即将人为的经验加入到机器的学习过程中从而加速学习正确目标的过程。然而,这种做法的正确性也得到了讨论:往往人为设计的奖励函数仅考虑到与目标的契合,而忽略了与agent行为的一致性。这种失配被称为Preferences-Parameters Confound。


显然,这四个角度对于Meta-learning的理解各有侧重,甚至存在不少冲突的观点。在 Juergen Schmidhuber 教授的演讲中,他针对真正的端到端学习给出了自己的定义。而在接下来 Satinder Singh 教授的演讲中,Singh教授直言不讳,划掉了PPT中的Meta-learning字样:看过刚刚Schmidhuber 教授的演讲,我自觉不足以在这里讨论Meta-learning的话题,接下来只侧重Reinforcement Learning。由此可见对于这样仍然未被完全定义的领域中,不同的学者对于Meta-learning的看法有多么大的分歧。当然,正是这样的分歧与争论不断推动着 Meta-learning 向前发展。



Juergen Schmidhuber


Deep Reinforcement Learning - DRL的泛化之路


自从AlphaGo在2016年战胜了诸如李世乭和柯洁后,深度强化学习受到了越来越多的关注。本次NIPS大会期间,DeepMind公布的AlphaZero更是让深度强化学习的分享备受期待。


第一位演讲者是来自Google DeepMind的David Silver,演讲题目"AlphaZero - 不用人类知识来驾驭棋类比赛"。David Silver是伦敦大学学院的计算机科学教授,目前在Google DeepMind任职,是Alpha系列程序的核心研究者。


在演讲中,他首先介绍了围棋的特点,强调围棋比起其他棋类可以有更多的变化。然后话锋一转进入演讲的主角Alpha系列的发展。作为第一个击败人类世界冠军的程序,AlphaGo包含两个不同的神经网络:策略网络和价值网络,再结合著名的蒙特卡洛树搜索来完成训练。同AlphaGo相比,它的迭代版本AlphaGo Zero采用了第一法则学习原理。该方法相比之前主要有如下四个特点:1. 无人类数据;2. 无人工特征; 3. 单独的神经网络; 4.简单搜索。可以看出比起上一代AlphaGo Zero有了相当程度的简化,此时演讲者指出了他的重要观点:越简单,越广泛(Less complexity → More generality)。接着Silver介绍了AlphaGo Zero的两种新的神经网络,其中策略网络用来预测围棋如何下子,而价值网络负责预测获胜者,二者的合成被应用在ResNet上。至于新的搜索方法,在AlphaGo中主要采用Search-based policy improvement和Search-based policy evaluation两个角度来完成强化学中的Search-based policy迭代。


在对原理有了大概的介绍后,Silver对比了AlphaGo Zero与之前版本的性能对比。其中AlphaGo Zero三天可以超过AlphaGo Lee,21天可以超过AlphaGo Master,在40天的训练后就可以击败世界冠军。在训练过程中研究者发现一个有趣的现象,AlphaGo好像逐渐学会了一些特定棋谱,并热衷于把它们应用于比赛。


接下来,最新的版本AlphaZero让棋类比赛更加简单。AlphaZero通过200到400次不等的迭代就已经可以分别在国际象棋(Chess),将棋(Shogi),和围棋(Go)中击败现有最强的棋类算法。其中象棋需要4小时,将棋需要2小时,击败AlphaGo Lee仅仅需要8小时训练。AlphaZero的具体信息虽然这次并没有透露,但其强大的能力让我们对深度强化学习多了一份期待。最后演讲者再次点题,坚持简单的算法可以应用与更多的场景。


之后的提问环节,有观众对完全没有人类知识表示不解。这里Silver给出解释,在模型的输入信息中除了包含规则外还有一定很简单的围棋的输入和输出范例,但数量很少,而且非常初级。



第二个重要演讲者Joelle Pineau,是来自麦吉尔大学计算机科学系的教授。她的主要研究方向集中在"Planning, learning and decision-making,mobile robotics, human-robot interaction" 和 "adaptive treatment design。"


这次她的研究是关于学术研究的心病 - 论文复现。由于研究者操作手段不同,信息不对称等,对结果复现造成了很大的难度。这个问题严重困扰科学研究,让成果验证更难。根据自然杂志的调查结果,在1576名受试者中,有52%的人认为这是一个严重的危机,38%的人相信这有影响。在另一项调查中,大部分科研工作者都经历过无法复现别人成果的痛苦。其中化学领域超过80%,生物领域达到77%,物理和工程相关领域则有近70%。在我们关注的机器学习领域,这种现象同样达到了80%。所以演讲者希望有一个统一的平台来进行强化学习的研究。通过这个平台,研究者可以在上面调用已有的标准的底层算法,利用统一的硬件配置和算力支撑,来让强化学习的研究更加可控,对模型参数的调整也会更容易。


虽然研究者的要求千差万别,但最底层的需求实际上存在大量重复。如果统一该过程,并且对操作结果进行详细描述,那会使人工智能研究成果更容易验证,大大降低了偶然性和噪音。这种平台的推广无疑可以加速人工智能的发展,也是现在各个学科的一个发展方向。


接着作者介绍了两个易混淆的概念:Reproducibiity和Replication。其中Replication只是简单的重做实验,在需要相同的数据,达到同样结果时需要,这种情况只适合与模拟数据,在现实生活中往往很难达到。Reproducibillity就复杂的多,从精确的数据,参数的调整,清晰的文章和代码,计算资源,系统配置等都需要达到一定要求,才可能把原有文章的结果应用到新的地方。


最后,演讲者呼吁我们都能投身于一个ICLR 2018 Reproducibility Challenge的活动,互相监督验证,共同验证已有的文章结果,来促进人工智能技术的进一步发展。


接下来的亮点在于来自卡内基梅隆大学的教授Ruslan Salakhutdinov的精彩分享:神经地图-深度强化学习的结构化记忆。


Ruslan Salakutdinov是最近在机器学习领域很活跃的年轻教授,主要研究方向包括Deep Learning, Probabilistic Graphical Models, 和Large-scale Optimization。这次他为我们带来了如何给强化学习植入记忆,让其在不同环境下都可以表现优异。


演讲从监督学习开始,认为大部分深度学习都可以表示为监督学习:映射并输出一个结果(Mapping and input to an output)。接着演讲谈到了环境对强化学习的影响,主要体现在三个方面:1. 环境是随着时间动态变化的;2. 动作对环境的影响存在不确定的滞后性;3. 对环境的标注是成本高昂而且很难实现的。 为了解决这些潜在的问题,Ruslan根据前人的工作,引入了记忆的概念来调整agent,使得物体进入新环境时候有更好的表现。但外在记忆的引入又引起了新的问题,比如效率较低(因为要记录所有的信息)。作者的解决方案是利用位置感知记忆(Location Aware Memory),这种方法可以起到一种类似于"地图"的效果,帮助agent进行探索。而且该方法在输出结果时候是利用稀疏的结果作为输出,可以防止agent过多的重写记忆。之后演讲者又详细介绍了这种神经网络的具体细节,比如operations, global read, context read和write。并且举了不同的迷宫例子,还可以应用与定位问题和自然语言理解问题。在演示的环境,可以清晰看出之前有过"记忆"的agent进入新模型时候往往会根据经验有更好的表现。


这种方法的理想状态,agent会拥有读写自己外在记忆的能力,而外在记忆会和知识库互相转化,并且agent也可以用不同的方法来和知识库进行理性的交流(reason communication)。最后演讲者还提出了一些展望,他表示希望进行不同agents共享记忆进行交流的尝试。


之后的提问环节,有听众询问是否可以构造更高级更抽象的模型?演讲者给出了肯定的答案,但也承认在现阶段距离该目标还很远。在一个开放的环境(open domain)会遇到更多的困难。另一位听众问到是否可以尝试不同的环境,比如新环境和旧环境有较大差别的情况?有过尝试但目前环境的差别并不是全方位的,演讲者希望有更多更好的模拟器出现。


这次的DRL分享反应出研究方向主要集中在深度强化学习的泛化和性能的提升。DeepMind采用了简化算法的方法,而Ruslan则选择了引入记忆的途径。殊途同归,但该方向取得的进展无疑是激动人心的。







]]> 原文: http://ift.tt/2y8gkUr
RSS Feed

机器知心

IFTTT

LangChain 彻底重写:从开源副业到独角兽,一次“核心迁移”干到 12.5 亿估值 -InfoQ 每周精要No.899期

「每周精要」 NO. 899 2025/10/25 头条 HEADLINE LangChain 彻底重写:从开源副业到独角兽,一次"核心迁移"干到 12.5 亿估值 精选 SELECTED 1000 行代码手搓 OpenAI gpt-oss 推理引...