2017年11月6日星期一

JDD-2017京东金融全球数据探索者大赛正式启动



设立千亿投资基金首届京东金融JDD大赛吸引全球数据AI人才。四大赛题,中美赛区,明星导师,豪华评委京东金融JDD大赛报名开启,最高30万元!京东金融JDD大赛创造国内人工智能大赛单项奖金纪录。

 

11月6日,由京东金融与红杉资本联合主办的首届"JDD-2017京东金融全球数据探索者大会"正式在北京拉开大幕。在大会举办当天,京东金融副总裁,技术研发部总经理曹鹏与大赛导师共同宣布,首届"JDD-2017京东金融全球数据探索者大赛"正式启动。


近年来,金融行业已经成为大数据与人工智能落地应用的重要行业领域在此背景下,本届大赛在开赛之前就引起了行业内外人士的高度关注 - 这场人工智能全球大赛将在中美两地同步举行,大赛设置了极具创新性的四大赛题,包括登录行为识别,店铺销量预测,信贷需求预测和猪脸识别,每道赛题均设有算法组和商业组,既关注技术能力,又产生商业价值。让数据实现比你更懂你的极致价值,让金融更简单,更平等。


本届大赛旨在更好地连接金融机构与科技公司,并挖掘全球顶级人工智能高手,帮助整个行业提高效率,降低成本,增加收入。优胜团队不仅可以获得创下国内人工智能大赛单项奖金新纪录的30万元赛题冠军大奖,还可受邀加盟京东金融,让自己的数据和AI能力得到更好的发挥。主办方更设立了千亿投资基金对接获胜团队。即日起,所有赛组和赛区均可通过"JDD-2017京东金融全球数据探索者大赛"的官方网站进行报名。


大赛主办方京东金融还特邀包括国际人工智能联合会主席杨强,红杉资本中国基金专家合伙人车品觉,微软亚洲研究院城市计算领域负责人郑宇,TalkingData创始人兼CEO崔晓波在内的四位业界大咖担任商业组中国赛区的导师,为选手提供48小时贴身辅导。大赛的评审团更是由京东金融CEO陈生强亲自挂帅,拥有国际顶级投资人,人工智能专家和金融行业大咖组成的豪华阵容。


谈起举办"JDD大赛"的初心,京东金融总裁陈生强表示,金融和数据天生就连接在一起,人工智能加快普惠金融的到来。数据和场景是人工智能的前提,京东金融在数据和场景方面有着自己得天独厚的优势,我们愿意以开放的心态把数据和场景连接起来并提供给大家。所以我们举办了这场大赛,也是希望优秀的技术团队和公司能够被更多人看到,能够得到社会更多资源的支持,走的更远。


大赛导师杨强指出,京东金融举办的JDD大赛,将场景,数据和技术进行了有机结合,这将会是今后AI发展的一个重要方向。另一位导师,微软亚洲研究院城市计算领域负责人郑宇则表示,这次JDD大赛为科研院所和学生们,以及众多创业者提供了一个很好的试水机会,让他们能够将研究成果在真实场景中得以实践。此外,本次JDD大赛让国内外选手能够同台竞技,在增强交流和分享经验的同时,也让世界真正见识到中国人工智能和数据人才的实力。


领沨资本创始合伙人马宁作为大赛评委,则从产业发展的视角对大赛给予了高度评价,他表示,作为中国金融科技的排头兵之一,京东金融以开放的态度来组织本次JDD大赛,将会积极的促进人工智能和大数据在金融领域的应用,更好地促进中国金融科技产业的发展。


实际上,人工智能,大数据,云计算等先进科技目前正在全球范围被深度挖掘,但这些研究更多存在于理论层面,很难应用于实际场景中。而京东金融举办此次JDD大赛的目的,就是将场景,数据,人工智能进行深度结合,并发扬京东金融的开放态度,让参赛的研究机构,院士学者,资深分析师等不同领域的专家使用京东金融提供的真实数据和场景,探索人工智能的无限可能性,实现各方的合作互生,最终推动全球智能金融的发展。

 

报名参赛地址:http://jddjr.jd.com/

 


]]> 原文: http://ift.tt/2AlFrp4
RSS Feed

机器知心

IFTTT

NIPS 2017 | 线上分享第一期:似自然梯度的优化算法KFAC与强化学习算法ACKTR


上周我们发布了《攻略 | 虽然票早已被抢光,你可以从机器之心关注 NIPS 2017》,在 NIPS 2017 正式开始前,我们将选出数篇优质论文,邀请论文作者来做线上分享,聊聊理论、技术和研究方法。

所以,第一期分享来了。


北京时间 11 月 8 日 20:00 至 21:00,多伦多大学在读三年级博士生 Yuhuai Wu(吴宇怀)将为大家分享一篇 NIPS 2017 论文《Scalable trust-region method for deep reinforcement learning using Kronecker-factored approximation》。



分享者简介


Yuhuai Wu(吴宇怀),多伦多大学在读三年级博士生,师从 Roger Grosse。曾在 Geoffrey Hinton、Yoshua Bengio、Ruslan Salakhutdinov 等指导下做研究。主要研究方向是优化算法、强化学习。是 2017 年 Google fellowship in machine learning 的得主之一。2017 暑假于 OpenAI 做实习,开源了 ACKTR 算法。



演讲主题


这次演讲主要研讨一个最近研发的似自然梯度的优化算法 -- KFAC(似二阶算法)。我们将其用在强化学习的问题上,并提出了新的强化学习算法 -- ACKTR,发现比前人的算法有效 2-3 倍。


针对这篇论文,机器之心曾发布过一篇简介:《OpenAI 开源算法 ACKTR 与 A2C:把可扩展的自然梯度应用到强化学习》,请大家做课前预习。


参与方式


线上分享将在「NIPS 2017 机器之心官方学霸群」中进行。加群方式:长按扫描下方二维码,添加「机器之心小助手Ⅱ」,备注暗号:147,由小助手拉大家入群。




机器之心 NIPS 2017 专题策划:http://ift.tt/2AlxsIx


]]> 原文: http://ift.tt/2j39mOJ
RSS Feed

机器知心

IFTTT

旷视科技成立学术委员会,姚期智担任首席顾问

旷视科技成立学术委员会,姚期智担任首席顾问,并解答人才、跨学科研究、论文等问题。


作者:藤子


11月5日,旷视科技联合清华大学、清华交叉信息学院以"人工智能的本质创新"为主题在清华大学举办了一场研讨会,在会上,旷视科技宣布旷视研究院成立学术委员会,邀请姚期智先生担任其首席顾问。


姚期智是中国科学院院士,首位图灵奖华人获得者。作为现代密码学、理论计算机科学、量子计算等领域的奠基人,姚期智创办的"姚班"培养出了大批计算机科学领域的人才,旷视科技的三位创始人——印奇、唐文斌、杨沫就正是"姚班"的学生,而在旷视科技内部,也有相当数量的员工来自于"姚班"。


据旷视科技首席科学家孙剑表示,学术委员会主要的功能,在于为公司提供一些无论是学术角度还是工业角度,都超出当前事业的见解。


印奇表示,为什么选择在现在成立学术委员会,是因为在公司技术创新过程中,以及将技术应用到业务的过程中,看到了一些更本质的问题,需要借助更好的理论框架去解决。而旷视科技作为行业的领军企业,有责任解决更本质的问题,做本质创新。


"我们创业初期的时候,很难有机会谈未来三年五年十年,随着现在的发展,思考眼前一年半年以外,也要思考未来如何,当我们在有一定实力的情况下,我们要在正确的方向上,给予大力的投入,这也是成立学术委员会的原因。"杨沐补充道。


在这个活动上,姚期智和印奇、杨沫、唐文斌以及孙剑一同探讨了人工的本质创新以及人工智能未来的发展,旷视科技的三位创始人分享了旷视未来的三年计划、融资观点等,而姚期智也从自己的角度分享了他对人工智能领域人才、论文、PhD等的看法。


一,旷视未来三年的计划


印奇:未来三年,最重要的事情是什么,我们内部有两句话——"赋能机器之眼,构建城市大脑",这是未来三年要做的事情。


赋能机器之眼,安防是未来城市和物联网的雏形,现在安防行业以政府型的项目为主,以硬件为主要的产品,未来一定是偏网络化、中心化的解决方案,是真正多层级的系统。在这其中,我们定位很简单,就是"赋能机器之眼",我们非常强调软硬结合,未来互联网终端设备越来越丰富,我们希望成为未来的技术核心,技术核心不是SDK这种,而是云和端的结合。其中,赋能的本质是如何能够打通数据链路,而非单独的封闭的闭环,这是我们在这个产业中对自己的定位,希望我们是赋能者。


构建城市大脑,我们最核心的定位是,把数据连通,智能化形成平台化的计算范式,构建大的趋势,把安防、金融、零售甚至智能物流、金融、制造结合在一起。


唐文斌:"赋能城市之眼,构建城市大脑",具体来说,第一,我们作为赋能者,广泛地跟厂商合作。第二,由于现在技术成熟是分周期的,不是一上来就很完美,所以技术与产品怎么结合,技术与场景怎么结合,技术与最后解决方案怎么结合,客户的价值怎么体现,需要结合场景、技术和算法的边界,权衡各类问题之后,提供综合方案,我们自身也会作为整体的方案提供商,帮助构建城市大脑的逻辑。


二,关于C轮4.6亿美元的融资


印奇:某种程度上来说,我们不需要那么多钱,但为什么要融?第一,某种情况下,这能证明旷视在这行业的领导地位。第二,希望我们有这样的实力,树立一个正确的评价标准。


人工智能行业和O2O不太一样,希望大家不仅要关注融资,还要关注钱用在哪了,这个行业是不是有更本质的创新和发展。人工智能行业目前还不是烧钱的阶段,现在有一个不好的现象是,大部分人工智能企业融的钱并没有很好的价值传导,唯一效果是让人才的价格水涨船高。我们为什么要选择这轮融资,是因为我们选择了大的产业方向,金融安全、城市大脑、手机智能,三个方向都有上下游整合的趋势,我们希望更多地把行业做深,融的钱在行业落地。人工智能行业是技术驱动,产业驱动,而不是完全资本驱动,我们希望把融来的钱用得其所,这是我们的融资观。所以希望不要以融资额评判公司的好坏,而是要关注这些公司究竟有没有给行业带来价值,产品的落地如何,从大的舆论环境树立更好的标准。中国人工智能行业有机会比美国做得更好,我们不要错失这样的机会,也需要更好的大环境,也是我们一直强调的。


唐文斌:我觉得融资的核心目标是做扎实,虽然我们的团队可以靠自己养活,但是细化来看,很多东西没有做扎实,从技术到产品到本质创新,到业务的落地,到交付给用户的价值,之前顶多是85分的状态,我们希望做到99分、100分。 


三,关于旷视的本质创新


孙剑:人工智能有理论的创新,工程创新,算法创新。我从算法的角度来看,算法的核心是解决一个特定的问题,算法上最本质的创新,在于对需要解决的问题的深刻理解,新的视角,新的观点,这是第一个层次。


第二个层次,在一个特定时期认定了一个问题,求解这个问题的算法,我看重两方面,它是不是具有通用性,比如说我们做万物识别,两万种物体,我们并不希望一种算法,只能识别猫或者狗,通用性越强,算法影响力越大。另外,别人是不是可以重复使用这个算法,我们不希望论文发表了,没人关心,没人关心说明没有解决问题的痛点,没有触及到问题的本质。那么,我们希望在算法上创新之后,让其他同行从业者、产业界的人看到算法,主动去应用算法,在算法研究中解决问题。这就说明这个算法做到本质创新,解决了痛点,触及了问题的本质。


唐文斌:我们把不太本质的创新,用另外一种方式,相对本质的解决。我们在深度学习框架内,突破了现在的框架,突破了深度学习现在的边界,另外我们尝试各种模型,哪个数据更好用,通过这样的组合,我们基于人脑的搜索,搜索出来哪个东西解决了这个问题,我跟杨沐在公司里做的工作就是,能够流程化、工程化,通过一套系统把边界内搜索的工作,真正变成一个系统,这个系统能够自动尝试各种模型的类型,去做模型的搜索,把这个东西变成一套系统,不本质的创新,用本质的方法解决了他,这是我们现在做的一些工作。


印奇:我们在产业界的创新,举一个例子,在金融领域,有非常好的市场和产品,服务很多客户。做人脸识别三四年之后,在这个行业里面另外一项技术,就是如何验证这是一张真人的脸,而不是一张照片或者视频。这样的创新对行业来说是非常本质的,而为什么能有这样本质的创新,是因为我们深扎到行业和场景,发现了这些问题,和最优秀的科学家解决了问题。第二,我在微软研究院,开始做人脸识别,到今天快十年了,当你在不同的数据量的情况下,你解决问题的方法从不本质到本质,而工业界、产业界给你一个最真实的问题,从最正确的方向上解决问题,屏蔽掉一些并不本质的创新或者甚至质量较低的创新,企业界跟理论界有更好的结合,会互相促进,使得创新做得更好。


四,关于人才


姚期智:人工智能领域的人才,最重要的特质就是聪明,这可能比其他学科更为明显。由于机器学习的发展,对很多人来说,有一个好处,如果用人工智能解决问题,很多以前要学的东西都可以不学。如果你是一个本科的学生,努力学习了一两个学期,如果你够聪明的话,就有可能马上脱胎换骨对尖端的问题也能做出贡献,所以聪明是一个很大的优势。当你了解这些已经知道的算法之后,下一步就是必须要有足够的在工业界的实战的经验。比如你在武当派练内功以后,剑法学得很好,但没有实战经验,出去碰到高手可能一下子就被解决了,所以实战经验非常重要。在一些人工智能公司,会有一些新的问题,对于聪明的好强的有野心的人,这是非常好的事情,因为可以激励他解决问题的决心。解决问题,对这个领域就有贡献,对人类社会就有贡献。


五,如何看待PhD


姚期智:这要根据个人的兴趣,和将来工作的方向来定。因为不同的人在这个领域想做的事情不同,觉得最有意义的事情也不一样。要让每一个人决定他最想做的,最有意义的事情是什么,才能真正发挥他的聪明才智。


那么PhD有一个好处,相当于它强迫你要晚一点成熟,比如,你的武当派老师傅说,你现在出师可以行走江湖,如果你多学十年再出师,学到的内涵更多,将来成就跟大。PhD过程中的一个好处就是,理念比较规范,更有可能在本质上深入地解决问题。如果你出师得早,一开始就完全来解决问题,那么你可能会觉得解决问题的魅力非常大,就会想一个一个自己来解决问题,就不大可能思考什么是人工智能的本质,这些问题你可能就没有解决。


六,如何看待论文


姚期智:我觉得发表论文,也有一些道理。论文是一个相对客观的衡量标准,使一般的机构或大学能够有一种方法,能够成为一个大家觉得比较公正的平台。另外,对于做研究而非做产品的人来说,做出来的工作,能够变成论文,接触到杂志或者会议,对他精神上能起到鼓励的作用,表明他做的事情,至少还有人认可。


但从实际的角度来说,这并不是最好的理由。比如在实际的工作中,你有方法能够判断这个人才如何,判断他做的工作如何,这个工作或许两三年能做出新的产品,或许三五年才会领悟出新的结果。但对于大多数研究院或研究机构,除非最优秀的地方,基本上没有能力判断,所以需要一个替他把关的标准,论文是一个没有办法的办法。


二十年前,靠杂志和会议来评判研究机构的研究人员做得好不好,那时需要从很低的水平,达到现在一般的水平,在当年是无可厚非的,现在还需要有名声的杂志来判断,主要是还没完成这个转变。大家也在看如何才能有更好的方法做评判。我们不能完全相信论文数量,但是它的存在还有一定的意义。


七,如何进行跨学科的研究


姚期智:如果要进行跨学科的研究,你要对好几个学科都有相当的认识,我认为最重要的就是数学和计算机科学。但是,我们对如何训练跨学科人才,并没有那么了解,所以还是要依赖年轻的同学们自己的经验与体会。跨学科探索,不是每个人都应该做的,有很多人做这个事情,反而不能达到本来可以做的事情。有一些人,他喜欢这种高挑战性、冒险性的,可以寻找同伴跟同伴一起,深入思考要探索的问题,逐渐发现自己的不足,去摸索。


孙剑:跨学科研究,我们自己看是从上往下,看到几个方向,但是我在旷视科技看到了从下往上,我们接触产业,接触产业中的实际需求,看到了跨学科的需求,比如计算机视觉,我们接触到了工业制造、智能制造的很多需求,比如做机器人,这里面不光是感知的事情,还有交互,里面有大量的小的问题,有非常强的需求,把不同的东西连接一起,能解决重大影响性的问题,我们公司还有很多姚班的同学,姚老师培养的有跨学科潜质的同学,放在一起可以产生好的环境,也可以产生跨学科的研究工作。


八,人工智能的路径


姚班同学:关于人工智能的路径,以前为了解决飞翔的问题,人类和生物界用了不一样的方法,至今人类也造不出鸟儿翅膀那样精巧的结构,造了一个压气机,效率不怎么高,但是也能往上飞,大规模使用。那么。人工智能将来是一种什么样的途径?


姚期智:这个问题很大也很好。人类科技的发展,确实到了能让我们想得更大的时候。开始一两万年,人类都是懵懵懂懂的,最近一两百年,好像突然厉害起来。所以现在到了一个程度,我们来想想看,我们能不能和老天竞争。


世界很美丽,也非常了不起,这个世界里面最壮观的到底是什么,自然界给我们什么东西?我觉得有两样。


第一,自然界本身的精妙程度完全超乎我们想象,比如,宇宙中有黑洞,天空中有鸟在飞,身体里面的DNA,看起来有人设计了自然界。那我们能不能用相应的方法,用人造去做。人类想要模仿自然界,这是最后的一个关口,我们一旦做好量子计算机,就能够模仿宇宙的各种东西的运转,包括设计材料,我们可以把量子计算,看作是我们跟老天竞争的第一个事情。


第二,最近十几年的发展,让我们至少部分做理论研究的人认识到,我们要有新的方法来做,我们要有跨学科的精神,如果计算机科学不能在研究方法和解决问题的方式上,打开我们的心胸,建设一些适合解决问题的理论的话,我觉得我们会被淘汰,如果很多问题我们不解决的话,会有别的学科用他们的方法来解决这些计算的问题。


]]> 原文: http://ift.tt/2j5haj5
RSS Feed

机器知心

IFTTT

华为AI芯片+微软研发=第一款移动端离线推理神经网络

10 月下旬,华为的 NPU AI 专用处理单元和 HiAI 移动计算平台亮相华为上海发布会,引起了诸多关注。在发布会上,余承东通过微软为华为开发的 Microsoft Translator 的 AI 离线翻译功能介绍了人工智能专用芯片 NPU 与 HiAI 移动计算平台。随后,我们与微软全球技术院士黄学东进行了对话,仔细聊了聊这款包含了世界上第一个能够在智能设备上进行离线推理的自然语言处理神经网络的应用的诞生始末


作者:邱陆陆




Microsoft Translator 是一款部署在 iOS 和 Android 平台上的应用,支持包括英文、中文等在内的超过 60 种语言的互译。


其翻译模式按照输入类别可以分为三种,分别是文本翻译(text)、图像翻译(photo)和语音翻译(voice)。其中图像翻译是借助 OCR 技术,读取出图片内的文本然后进行翻译,语音翻译则借助了语音识别技术。


按照翻译所用的模型类别,则可以分为在线的 NMT 模式和离线的 SMT 模式。


NMT 指神经机器翻译,是以神经网络为基础,以句子为单位进行整体翻译的方法,是当下的最佳模型(state-of-the-art model),然而神经网络模型通常规模庞大,需要大量计算资源,因此只能部署在云端。

SMT 以词和短语为单位进行翻译,是 NMT 出现前的上一代最佳模型,主要依赖于对大量语料进行统计找出规律,SMT 模型相比于 NMT 模型规模较小,能够保存在本地,以 Microsoft Translator 的 iOS 版本为例,一个简体中文离线包的大小是 205MB。


而为华为特别开发的这一款 Microsoft Translator 的特别之处就在于,其文本翻译和图像翻译模式均采用了离线的神经机器翻译模型。


这一原先仅仅能通过微软 Cognitive Services API 调用的,部署在微软云上的神经机器翻译系统,采用了惯用的多层 LSTM 编码器、注意力(attention)算法和解码器组成的系统。


图:LSTM 编码器 + 注意力模型 + 解码器系统演示


这类复杂的神经网络通常带有数以百万计的参数,每次解码过程需要进行大量的运算,通常都会以云端的 CPU 或 GPU 进行。例如,谷歌翻译利用 GPU 进行推理,有道翻译利用 CPU 进行。而开发一款神经机器翻译系统最大的障碍之一就是推理速度。谷歌和有道的工程师都曾表示,开发的初期阶段,模型虽然准确率很高,但翻译一句话需要 10 秒钟甚至更多。这使得系统完全达不到「可用」的标准。工程师们投入了大量的精力对模型做不影响效果前提下的修改和简化,才让部署在云端处理器上的系统变得可用。而这一次,微软的工程师直接将这个原本难倒了大型 CPU 和 GPU 的模型放在了移动端芯片里。


微软将模型中最耗费计算资源的 LSTM 编码器用深层前馈神经网络(deep feed-forward neural network)替代,转换为大量低运算难度的可并行计算,充分利用华为 NPU 能够进行大规模并行计算的特点,让 NPU 在神经网络的每一层中同时计算神经元的原始输出和经过 ReLU 激活函数的非线性输出,由于 NPU 有充足的高速存储空间,这些计算可以免受 CPU 与 NPU 间数据交换的延迟,直接并行得到结果。


图:替代后的翻译模型


搭载于最新的 Mate 10 系列上的麒麟 970 芯片及其内置的 AI 专用处理单元 NPU,是华为第一次在移动设备的层面上把机器学习硬件计算加速能力叠加进芯片中去,也让 Mate 10 成为全世界的消费者拿到的第一款有专用于进行人工智能方面计算的处理单元的手机。


黄学东表示,从手机 CPU 到 NPU 有接近 300% 的计算加速,正是这个加速让神经网络在终端设备上的离线推理越过了阈值,从不可能变成可能。


以前在 CPU 时代,离线操作就要承受巨大的性能损失,而在线服务就无法脱离开对网络的依赖。尤其是翻译这样一项服务,很多应用场景都并没有稳定的网络支持,是需要有强大的离线功能存在的。而华为手机的用户大多为商务人士,很多应用场景都在国外,网络条件并不能得到保障,离线功能可以说是必不可少。


因此微软的工程师联合华为的工程师,对现有的神经翻译模型进行了层数、模型结构、工程实现方法等多方面优化,能够在大幅减小所需运算量的情况下让离线模型效果可以媲美在线模型,「大家应该感觉不出来二者的差距」,黄学东说。同时也研究了如何更好地同时使用 NPU 与 CPU :利用 NPU 完成推理工作,利用 CPU 辅助程序所需的其他操作。


而选择了神经机器翻译作「第一个吃螃蟹的 AI」,则主要是出于两个考量,一是翻译是一个痛点十分明确的需求,二是神经机器翻译模型的简化和提速相比于语音模型更容易。


黄学东十分看好神经网络处理单元在移动端的前景:「未来会有更多手机有神经网络处理单元,例如苹果 iPhone X 需要做面部识别解锁,就一定需要手机具有离线运行深度神经网络的能力。另外 iPhone X 的照相功能中的三维打光,也需要进行大量的计算。未来这样的需求会越来越多,因此专门的处理单元是很必要的。」


而对于微软来说,下一步可能会研发在线与离线相结合的混合系统,能够在网络条件好的时候自动调用性能更好的在线模型,在网络条件不足以支持的时候进行离线推理。这对于微软以 Cognitive Service 为代表的云服务是一个很自然的拓展,增加了终端的适用性。


同时微软的 PowerPoint 实时翻译功能也能够在华为手机上使用,能在演讲中、课堂上提供实时的帮助。演讲者在台上进行演讲的同时,PowerPoint 的自动翻译插件会识别语音、转换为文本,并可以进行超过 60 种语言的同传。台下的每个人都可以在自己的手机上获得自己需要的语言的翻译。」


「我们最终的目标是去掉语言障碍。」黄学东说,「We want to bring people together. 当年我带着美式英文的底子去爱丁堡大学留学,很是为教授的苏格兰口音英语吃了一些苦头。如果现在的爱丁堡大学的教授下载了 Presentation Translator,而每一位留学生的手里有一部华为 Mate 10 手机,他们就不必经受我当年的痛苦了。希望通过这次与华为合作,能够帮助更多用户打破语言障碍。」


最后,让我们通过一组截图感受一下 NPU 与神经网络的强大之处。以下全部截图来自华为 Mate 10 Pro。

主屏界面:


可以看到有文本、图像、语音和对话四种翻译模式,用图标代替文字说明也体现了「消除语言障碍」的目标。



文本翻译模式英翻中:


我们选择了一段机器之心对 Christopher Manning 的专访文章的开篇:


「Deep Learning waves have lapped at the shores of computational linguistics for several years now. but 2015 seems like the year when the full force of the tsunami hit the major Natural Language Processing(NLP) conferences.」Two years ago, Christopher Manning began his speech on ACL2015 this way. 


复制完文档内容后,打开 Microsoft Translator,可以看到屏幕右侧有黏贴快捷方式。



粘贴后不到一秒翻译完成,效果如下:



你可以用全屏模式展示给他人:



或双击复制内容:



或用其他方式分享:



图像翻译模式中翻英:


这里主要测试 OCR 模型的识别能力、准确度,以及翻译速度与精度。


我们截取了一段本文中的内容:



应用在不到一秒的时间里完成了 OCR 文本识别和翻译两项工作。


可以看出,该系统准确翻译了自然语言处理(natural language processing),神经网络(neural network)等专有名词,并能够主动调整句式,将「包括英文、中文在内的超过 60 种语言的互译」翻译为「translation of more than 60 languages, including English, Chinese, etc.」。


图像识别英翻中:


我们采用了两张 Christopher Manning 的演讲幻灯片作为样本:



可以看到幻灯片右下角,连人眼很难看清的标识版权的蝇头小字都被 OCR 捕捉到。



它也能自动区分哪些是专有名词与缩写,采用原文而不翻译。


目前看来,华为 Mate 10 系列上搭载的第一款移动端神经网络应用的效果很棒,相信随着开发者的跟进,我们很快就会看到人工智能芯片驱动的更多 AI 新应用。 


]]> 原文: http://ift.tt/2Aoe3Hh
RSS Feed

机器知心

IFTTT

M2 模型杀回 Coding 和 Agent 领域,MiniMax 想要「普惠智能」-InfoQ每周精要No.900

「每周精要」 NO. 900 2025/11/01 头条 HEADLINE M2 模型杀回 Coding 和 Agent 领域,MiniMax 想要「普惠智能」 精选 SELECTED a16z 将 3000 万开发者标价 3 万亿 网友:几个初创公司 + 大模型就...