2018年6月30日星期六

自然语言处理(NLP)概念浅析及国内外学习资料盘点

近来,人工智能(AI)行业利好消息不断,各大巨头都在积极拼抢这个领域的人才,笔者最近也频繁收到相关方面的咨询和讨论,不得不说,有时候大家真的搞错。人工智能是个非常大的概念,囊括了几乎所有学科,并非单纯计算机、通信、声学、光学等领域,也并非热炒的机器学习(例如深度学习强化学习)就能实现的。然而,基于大数据和机器学习的狭义人工智能,确实已经给人类生活带来了巨大的变化,比如搜索、电商、广告、社交、语音等等。

 

一直以来,人们似乎都把语音识别看的极其重要,并认为语音识别就是最接近人工智能的领域。实际上这是一个误区,语音和按键、触摸、手势等方法一样,只是人类交互的一种手段。也有很多人认为语音帮助人类产生了智慧,然而,这一观点并没有有力的证据支撑。目前,这方面的基础研究还没有实质性的进展,我们对人体精密构造的认知还是非常浅薄的,至于智慧更是几乎一无所知。唯一能推断的就是,语音交互确实是我们获取知识的一种重要手段。

 

鉴于以上的认识和误解,笔者认为应该写篇这方面的科普文章,虽然笔者也不精通这个领域,但是我们可以从底层声学这个范畴来思考和讨论一下人工智能相关的概念,确实这方面通俗易懂的资料太少了,也希望更多学术和产业领域的大牛们来指正和探讨。

 

在此,笔者要先摆明自己的观点,目前人工智能的相关应用中,语音识别并非是关键点,而且语音识别也并未给我们生活带来多大变化。语音识别经过十多年的高速发展,特别是结合深度学习的融合发展,目前的精度已经相当高,然而达到99%以后,再提升就显得非常困难。但为什么语音识别的精度到达如此程度,我们却对其仍然不满意呢?其实,这和语音识别的关系不大,是我们误把语言理解的概念强加给了语音识别。实际上,语音识别只是人工智能中的一个小学科,现在也可以算是深度学习中的一个分支。类似于人类,语音识别至多是我们听觉系统内的一个神经单元,只负责将语言转化成人类可听到的信号激励,若在计算机应用中,就是转化成我们常说的文字。

 

那么关键点在哪?从各大巨头发布的宣传资料和介绍的相关信息来看,实际上大家都在追求:自然语言处理(Natural Language Process,NLP)或者说自然语言理解(Natural Language Understanding,NLU)的突破。当然,这也是得益于基础声学和语音识别的巨大进步。基础声学和语音识别解决的是计算机"听得见"的问题,而NLP实际上就是要解决计算机"听的懂"的问题。这么看来,"听的懂"才是目前十年内最为关键的问题,下面,笔者就NLP的概念以及国内外的学习资料进行盘点与分析。


语音和语言有何区别?

我们首先要明确一下语音和语言的区别,这是一个基础性的问题。语音(Speech)是语言(Language)的信号载体,语音是人的发音器官发出的,承载一定的语言意义,而语言才承载人类的智慧。通俗的讲,语音是天生就存在的,婴儿的咿呀咿呀也算是语音,甚至其哭声也代表一定的意义,而语言则是需要学习不断进化的。

 

人类的进化为什么自然的选择了语音作为交互的手段?一般认为,是因为语音有着得天独厚优越性,比如声音比光更容易传播,而且不受昼夜变化影响,同时也有更广的传播范围。当然,也有许多科学家提出反对的声音,比如很多动物的听觉实际上比人类更为发达,为什么却没有进化出来语音交互呢?这个问题我们暂时放到后面文章探讨,事实上动物界中的很多动物也会发出一定的声音来进行信息的交互,但是仅有语音交互是不够的。

 

单独强调语音,而不说语言实际上没有任何意义的。当然语言也不仅是只有语音这一种载体,语音是不好保存和搜索的,所以人类还发明了文字这个神奇的东西。文字却又是通过视觉来感受的,不过文字也仅是帮助我们映射而已。象形文字刚开始的时候,还和视觉有直接的关联。后来,不论是汉语,还是其他语言基本上都进行了抽象,与听觉以及视觉的关联不再明显。到此为止,语言就已经完全抽象出来,和我们所理解的概念相关了,已经远远超过了语音、图像等识别的概念,甚至数学也成为了我们的一种语言。

 

因此当人类使用语言来存储知识和表示概念的时候,计算机和机器人也就必须学会适应这种方式。也就是说,计算机和机器人在未来的趋势中,必然是理解语言这个极其复杂而又承载人类知识传承的表达方式。但是,做到这一点是极其困难的,虽然我们看到了很多的进展,但是,机器理解语言在短期内还无法看到实质性的突破。这个领域需要更多优秀的人才加入,笔者写这篇文章目的也是这个原因,人才的涌入才会带来希望,至少我们不断的积累总会带来些许进步。

 

如何描述和定义NLP?

事实上,自然语言处理(NLP),或者说自然语言理解(NLU),或者说计算语言学(CL)很难有个准确的定义。1999年美国计算机学家Bill Manaris曾这样描述:自然语言处理是一门研究人与人交际中,以及人与计算机交际中的语言问题的学科。自然语言处理(NLP)研究表示语言能力、语言应用的模型,通过建立计算机框架来实现这样的语言模型,并提出相应的方法来不断地完善这样的语言模型,还要根据这样的语言模型来设计各种实用系统,并探讨这些实用系统的评测技术。笔者认为这个概念定义的比较准确,但又太过泛泛了。所以,很多时候我们仍然非常迷惘,然而这没有问题,因为语言本身就是我们人类最为复杂的概念之一。

这些年NLP的研究得到了前所未有的重视并获得了长足的进步,逐渐地发展成为一门独立的学科。而NLP又与基础声学、语音识别等技术互相渗透,而形成了众多新的研究分支。而这些分支的发展也在大众中混淆了概念,大家干脆就把语音识别理解成了我们上面所啰嗦的那么多内容。

 

NLP涉及哪些研究内容?

自然语言理解的研究内容包含太多了,我们这里也仅能列举其中一部分,包括中文自动分词(Chinese word segmentation,词性标注(Part-of-speechtagging),句法分析(Parsing),自然语言生成(Naturallanguage generation),文本分类(Textcategorization),信息检索(Information retrieval),信息抽取(Informationextraction),文字校对(Text-proofing),问答系统(Questionanswering),机器翻译Machine translation),自动摘要(Automaticsummarization),文字蕴涵(Textual entailment)等等,其中,基础声学和语音识别等相关学科也可以纳入这个研究范畴。

自然语言理解研究的目标自然是希望通过图灵测试,包括了语音、形态、语法、语义以及语用等方面,也要解决人类语言中的因果、逻辑和推理的问题。这是非常重要的,我们知道大数据仅仅是代表了历史的规律和预测的趋势,如果没有因果关系和逻辑推理,计算机和机器人就始终无法为人类提供可参考的建议,甚至是决策

 

NLP当前难点都有哪些?

这个就太多了,上面我们提到过了,人类的语言融合了语音和文字,实际上也是听觉和视觉的融合,不是割裂开的。但是,现在这两个学科却是互相独立的,人为造成了这种研究的困难。另外,人类的语言多样化,每种语言的表达方式也千差万别。理想主义甚至认为人类的很多语言知识是与生俱来的,这个说法也有一定的实验支持,声学在线曾经报道过这方面的进展。不过,即使经验主义也是认为语言是通过感官和人脑的联想与抽象得来的。这是个大问题,因为这让很多研究人员没有了思路,科学的进展最怕这种困难。很多时候,我们还都把科学的进展归结为哲学的进步,没有了思路也就很难找到突破点,这需要基础研究的进展。

 

当然NLP现在实际的技术困难还是语义的复杂性,包含因果关系和逻辑推理的上下文等。现在解决这些问题的思路主要还是深度学习(Deep Learning)。深度学习带给了研究人员一种全新的思路,这倒不是最新的,BP神经网络刚兴起的时候,学术和产业界也是非常热闹,因为当时的研究人员认为总算找到了思路,后来BP神经网络几乎没啥实质进展,渐渐的就冷了很长一段时间。深度学习拓展了神经网络的层次,而且大数据的积累和并行计算的增强则给这种方法奠定了基础,这也是最近机器学习非常火热的原因。因此基于大数据、并行计算的深度学习将会给NLP带来长足的进步,但是若想达到人类的这种理解层次,恐怕仅靠这种方法也很难实现。

 

NLP学习的参考资料有哪些?

笔者一直在说自然语言理解的问题,文字还是最为重要的知识传承方式,因此自然也要提供些参考资料给大家,但是这个领域的科普书籍实在太少了,笔者也只能推荐一些书籍、网上资料给大家参考学习,姑且先把这篇文章作为入门科普的参考吧。

 

首先,笔者建议还是要先看斯坦福大学的视频学习课程,哥伦比亚大学的视频学习课程也不错,只是这些课程还是英文的,国内也有几位老师的公开视频可以参考,比如宗成庆老师或者关毅老师的自然语言理解课程,冯志伟老师的计算语言学课程都还不错。微信上不方便放链接,感兴趣的朋友就到我们声学在线的网站上直接点击链接吧。

 

其次再推荐一些书籍,首推还是Daniel Jurafsky和James H. Martin的《Speech and LanguageProcessing》,已经出第二版本了,也是国内外的主要教材。这两人还写了几本相关方面的书,都还不错,亚马逊等一些线上平台搜索一下就能查到。国内也有冯志伟老师翻译的《自然语言处理综论》可以参考。数学基础稍好的还应该看看《数学之美》(吴军)和《统计学习方法》(李航),计算机编程稍好的更应该看看《机器学习实战》(Peter Harrington)和《Python自然语言处理》(Steven Bird)等。

 

最后再推荐一些学术会议,通过查询这些学术会议可以获知很多的学术进展,最重要的是,可以通过这些学术组织的会员和文章了解很多相关的研究单位,这些学术会议包括:ACL: TheAssociation for Computational Linguistics ,AAAI:Association for the Advancement of Artificial Intelligence ,ICCL: TheInternational Committee on Computational Linguistics  ,COLIPS: TheChinese and Oriental Languages Information Processing Society 以及中文信息学会等。

 

NLP都有哪些知名研究机构?

笔者通过声学在线的众多朋友汇总了一些信息,可能不是很全面,不足的地方还请各位批评指正,这些研究机构(排名不分先后)包括:斯坦福大学自然语言处理研究小组,卡内基梅隆大学语言技术研究院,哥伦比亚大学自然语言处理研究组,约翰霍普金斯大学语言和语音处理研究组,康奈尔大学NLP研究组,宾夕法尼亚大学NLP研究组,伊利诺伊大学香槟分校NLP团队,南加利福尼亚大学自然语言研究组,爱丁堡大学语言与计算研究所,谷歌苏黎世研究院,亚马逊NLP研究组,香港科技大学NLP实验室,中科院计算机所自然语言处理研究组,北京大学计算语言学研究所,清华大学人机交互与媒体集成研究所,中科院声学所语言声学与内容理解重点实验室,中科院自动化所模式识别重点室,百度自然语言处理部,中科大人机语音通信研究评测实验室,哈尔滨工业大学计算机学院智能技术与自然语言处理研究室等。

 

总之,自然语言理解随着深度学习的发展,还是看到了很多进展,但是NLP所需要解决的语言问题真的是非常复杂,近期内还是难以有所突破。正因为有这些挑战,才更需要更多有才华的人才持续不断的投入这个行业,而且这是未来数十年的新兴行业,现在刚毕业的优秀学生都有可能拿到50万的年薪,其经济收入将是很可观的。当然这也是个问题,虚高的投入或许会给这个行业带来一些阻碍。

]]> 原文: https://ift.tt/2lH4IE9
RSS Feed

机器知心

IFTTT

反对立法的Facebook又出数据泄露问题,你的数据隐私保护好了嘛?

隐私、隐私,还是隐私。今年的Facebook"命犯隐私"。


据外媒消息,一个名叫"NameTests"的第三方测试应用让Facebook1.2亿用户的数据面临"裸奔"的风险,Facebook的数据丑闻再次升温。


此前还有消息称,Facebook将公司收集的用户个人信息隐私数据泄露给了包括亚马逊、苹果和三星在内等超过60家硬件设备厂商。随后,Facebook对这个说法进行了否认。

 

今年3月,Facebook的隐私丑闻首次曝光,随后扎克伯格在美国众议院和欧洲出席听证会,甚至还为此在5月封停了大约200个应用,以及做了高管层面的重大调整。



但现在,问题又卷土重来。


根据道德黑客Inti De Ceukelaire的发现,只要用户注册Nametests.com网站中的任何一款智力竞赛应用,他们在Facebook上的个人数据都会被泄漏。这些数据包括姓名、出生日期、婚姻状态、好友名单、图片等等。即便是用户删除了这些应用,这些数据也依然会被泄漏。


怪不得在欧洲听证时,有问询人提到,自从2003年Facebook创立以来,扎克伯格几乎每年都在道歉,而且至少已经道歉15次了!


隐私问题就那么难?


DeCeukelaire称,他在4月22日就上报了这个问题,但直到8天以后Facebook才作出回应称其正在展开调查。到5月底,Facebook才回复称其可能需要3到6个月来进行调查。然后直到6月25日,De Ceukelaire才注意到NameTest已经修复这个漏洞。


此前,媒体就已经报道过,一家名为GSR的公司把自己收集到的数据通过剑桥分析,呈上了特朗普的办公桌,以帮助他在2016年大选期间了解详尽的选民数据,并有针对性的向他们在Facebook平台上投放广告。


Facebook首席技术官迈克-斯克洛普夫(MikeSchroepfer)后来证实,此次数据泄露事件涉及到8700万Facebook用户,且主要为美国用户。


扎克伯格在面对听证时也表示,Facebook 将会移除这些用户的账户,禁止这些用户继续使用Facebook。目前,Facebook已经成功禁止了270个美国恶意用户,和470个俄国虚假账户。


 

随后,Facebook在5月做出表态,为了清除可能滥用Facebook用户数据的第三方应用程序,该公司的审核行动已经进行了2个月,并且已经暂时封杀了大约200款应用程序。但同在5月,在F8开发者大会上,Facebook又重新开放了应用审查程序。


事实上,Facebook只是掀开了数据隐私泄露的冰山一角,依赖用户数据的公司不止Facebook一家,还有Google、Amazon、Snap,以及国内的众多互联网公司。而且更多的公司确实面临着精准的数据"诱惑": 搜集用户信息、第三方广告公司推送用户信息、精准推送、公司盈利。


就在本月,6月13日,网传"12306数据疑似泄漏"。经核查,该网站未发生用户信息泄漏,网传信息与铁路12306网站无关。这虚惊一场,就涉及到了国内众多用户的隐私数据,为了确保信息安全,12306也再次发出了提醒。


立法是否能解决问题?


5月25日,《通用数据保护条例》在欧洲正式生效。


在欧洲听证时,扎克伯格也表示,Facebook预计将在个人数据使用和保护上"完全遵守"严格的新法规《一般数据保护条例》(GDPR),并将向用户提供许多新工具,让用户可以控制自己的个人数据,例如清除特定帐户的浏览历史数据。


库克接受CNN的采访时也谈到了隐私问题, "隐私是一个人的基本人权,但现在隐私问题已经完全失控,我认为大多数人都不知道谁跟踪了他们,他们被跟踪了多少,以及那些关于他们的大量详细数据。"

 

所以他认为,政府部门对科技公司监管很合理,虽然自己并不太喜欢外界监管。


当然,现在,更多的法律也在制定和实施的路上。

 

今天,美国加州的消费者隐私法案就获得了州参议院和议会的一致通过,并由州长杰里·布朗签署。消费者可以依据法律,更好地控制其个人数据如何被公司收集,使用和销售。

 

该立法草案称,加州人都有权了解他们相关的私人信息,包括他们的信息是否会给出售给谁,是否有权删除他们的信息,有权选择退出或者出售其私人信息,等等。这些私人信息包括互联网浏览记录、搜索记录、生物识别数据、地址信息,以及各种标识符,包括姓名、别名、邮寄地址、电子邮件、社保号码、驾照护照号码等等。

 

法案将于2020年1月1日生效,届时企业可能会因为每次的违规操作而最高被罚款7500美元。与此同时,科技公司和广告组织也一直在反对一项包含消费者保护措施的投票倡议。

 

路透社就报道了相关消息,"谷歌高管曾警告称,这些措施可能有意外后果,但没有说明这些措施可能是什么。代表 Facebook 和亚马逊的互联网协会(Internet Association)也反对这项法案,加州商会(California Chamber of Commerce)和全国广告商协会(Associationof National Advertisers)也反对这项法案。"

  

国内又该怎么办?

 

3月,李彦宏也曾就数据隐私表达了自己的看法, "中国人更加开放,或者说对于这个隐私问题没有那么敏感。如果说他们愿意用隐私换,或者交换便捷性或者效率的话,很多情况下他们是愿意这样做的。"

 

随着人工智能时代的到来,语音识别、图像识别等领域的人工智能企业,就已经在大量获得更多的相关数据。而一旦这些基于大数据的行业,真的重蹈了Facebook的覆辙,情况就会变得更加的糟糕。

 

IBM大中华区董事长陈黎明就曾在公开场合表示,"根据机构预测,从2017到2022的五年间,全世界因为网络安全、数据安全、隐私安全带来的损失将高达八万亿美元,这相当于我国一年GDP总量的50%。"

 

从国家层面来说,政府需要适度立法,保障网络安全;从企业层面来说,企业更要有自己的行业自律和职业操守,不要监守自盗。尤其是对于企业来说,如何在把大量数据转换成价值的同时保证好用户的隐私安全,就显得越来越重要了,也越来越需要提上自己的议事日程。

 

声学在线可以在此大胆预测,在接下来的人工智能和大数据的时代,我们每个人的网络安全和个人隐私都会受到更大的挑战。对于我们自身来说,加强相关的防范意识,这才是上上之策。

]]> 原文: https://ift.tt/2lLA7W4
RSS Feed

机器知心

IFTTT

腾讯AI Lab副主任俞栋:语音识别领域的现状与进展

感谢阅读腾讯AI Lab微信号第27篇文章,去年9月,AI Lab推送过一篇关于深度研究的论文概述,该论文由腾讯 AI Lab 副主任兼西雅图实验室负责人俞栋博士,与微软首席应用科学家兼技术负责人李锦宇联合撰写,详情可点击 这里 查看。


日前,媒体「机器之心」在腾讯 AI Lab 学术论坛上对俞栋博士进行了专访,包括语音领域的研究现状如何;是否得到了业界的肯定与应用;腾讯 AI Lab 的进展如何;又有哪些新的目标。以下,是他关于这些问题的答案。


语音领域:Where are we standing? 


机器之心:语音领域整体的研究处于一个什么状态?


俞栋:去年底在 NIPS 会议上南大的周志华教授还和我开玩笑说,「语音识别已经解决了,你不要做了。」相信很多人有类似的感觉。虽然很多公司已经宣称可以在标准数据集或安静的近场环境下达到「97% 识别率」、「超过人」等等水平,但是实际上市面上的产品,在很多真实应用场景下,尤其是远场、中文夹杂英文、旁边有人说话等等情况下,效果还远远达不到期望值。还有很多待研究的问题。

 

机器之心:从标准数据集到真实场景,待解决的问题都有哪些?

 

俞栋:有很多。比如,现在的系统鲁棒性都不太高,而且都还依赖增加数据(包括合成的模拟数据)来提高鲁棒性。这一点对于基于深度学习的系统来说尤为明显:数据没覆盖的情况就做不好,是这类方法的一个局限性。

 

这个世界的可能性是无限的,即使采集了几十万小时的数据,也不能覆盖所有的情况,还是会有很多新的、没见过的场景。而标准数据集的一个特点是,训练集和测试集之间是强相关的,换言之,它们之间的不匹配度(mismatch)不大。

 

很多机器学习方法都要遵循一个基本假设:训练集和测试集符合同一分布。不满足这一要求的话,学出来的模型的效果是没有理论保证的。而真实场景,恰恰是不保证训练集与测试集满足同分布假设的情况。

 

语音识别研究的历史上,很早就有人意识到了这一问题,并开发出了很多自适应算法,试图根据场景和环境的变化做自适应。目前来说,自适应算法起到了一定的作用,但是还不能完全解决鲁棒性问题。

 

机器之心:理论上来讲,推理的数据与训练数据不满足同分布假设的话,机器学习模型会整体失效。那么自适应算法最终能够解决鲁棒性问题吗?

 

俞栋:真实场景和训练集之间所谓的「不满足同分布假设」大概率来讲不是「完全不满足」,而是「近似」或者「满足一些」。因此机器学习模型的识别率虽然会下降,模型仍然可用。只不过需要采用一些方法来弥补大致满足与完全满足同分布情况下的差距。

 

自适应算法只是其中一种方法,它有多个变种。比如可以用另外一个模型来判定分布变化与否,甚至判定如何变化,从而将变化后的特征或分布「恢复」成和训练时所见基本一样的情况再进行识别。举个例子,如果一个模型用我的声音做训练,然后去识别你的声音,效果就会很差。但是如果有一个模型,专门刻画人声的特点,并且在训练的时候,就把「说话人身份」(Speaker ID)作为一个重要的变量放进去,那么今后在识别其他人的时候,只要把说话人身份替换掉,就能获得识别率的上升了。问题在于,这种对于变化的估算也会引入误差,相对的性能还是会有损失。


四个前沿问题的进展


机器之心:端到端模型之前,语音识别模型的发展历程是什么样的?

 

俞栋:以前的语音识别系统基于高斯混合模型Gaussian Mixture Model, GMM)和隐马尔可夫模型(Hidden Markov Model),合在一起,叫 GMM-HMM 模型。

 

在 90 年代初期,伯克利大学的研究人员就开始用多层感知机加上隐马尔可夫模型进行语音识别,由于模型由一个传统的生成模型 HMM 和一个比较时髦的判别式模型神经网络组成,他们称其为混合模型(Hybrid Model)。2010 年,我们用深层神经网络替换掉了浅层神经网络,用上下文相关音素(Phoneme)替换单音素作为建模单元,仍然沿用混合模型的基本架构但增加了建模单元的数量,取得了识别效果上的突破。

 

最近的端到端模型则完全不再需要隐马尔可夫模型,从头到尾都是一整个神经网络。有时候需要结合外部语言模型,如果数据比较多,连外部语言模型都不需要了。

 

机器之心:端到端识别模型有哪些进展呢?

 

俞栋:在即将召开的 ICASSP 上,谷歌会发表一些相关文章,部分预印版已经放在 arXiv 上了,文章里提到当使用大量训练数据时可以在语音搜索任务的某一个测试集上做到和混合模型一样的效果。但是在真实场景下当出现没见过的尾端(tail)搜索词的情况下,效果还有差距,这表明这些模型记忆能力很强但是举一反三的能力还比较欠缺。

 

但无论如何,这仍然是十分可观的进展了,因为之前的端到端系统和混合模型之间的差距还很大,现在这个差距在缩小,甚至在某一场景下端到端模型可以做到超越,这都是比较大的进展。

 

腾讯 AI Lab 最近几个月也做了一些类似的工作,在数据量比较少,也就是端到端系统的优势更不能得到体现的情况下,用一些新的算法和技巧大幅提高了性能。

 

应该看到,在端到端系统上面,大家的投入是比较多的,也确实有一些比较有意思的进展。但是端到端系统是否能替代混合模型,仍然是未知数。

 

只有当新模型比旧模型好很多的时候,替换才会发生。当然,这里的好是多方面的,不单单是识别率好,也可能是在其他指标不变的情况下你的运算量小了,或者是解码速度提升了。

 

机器之心:端到端模型在产品中有实际应用吗?

 

俞栋:目前的端到端系统基本上基于两个框架,一个是 CTC(Connectionist Temporal Classification)框架,一个是基于注意力机制的 seq2seq 框架。

 

刚才提到的谷歌的论文用的是基于注意力的框架,投入使用相对较少。CTC 模型用得相对较多。腾讯的产品上既有 CTC 模型,也有混合模型,性能没有太大区别。

 

CTC 的好处是可以采用更大的建模单元,坏处是存在一个随机延迟的问题,即结果出来的时间不是预先可知的。随机延迟的后果是断句困难,这会给用户造成一种「你怎么比别人慢」的感觉。

 

因此,做交互的系统,比如语音助手类,大部分仍然在使用混合系统。而对实时性没有要求的产品,比如 YouTube 的字幕生成器,因为可以离线,所以有延时也没有关系。

 

机器之心:鸡尾酒会问题的现状如何?

 

俞栋:大家都很重视鸡尾酒会问题,因为这是远场里必须解决的重要问题,因此也有蛮多进展。

 

一个当然就是我们之前提出的置换不变性训练(Permutation Invariant Training)的方法,我们在很多场景下都做了不同的尝试,也有其他的学校以及公司,在我们的工作上做了一些拓展。

 

此外还有其他重要的方法被提出来,比如 MERL 的深度聚类(deep clustering)方法和哥伦比亚大学的深度吸引子网络(deep attractor network)。另外 NTT 还提出了一种跟我们不同的设定,我们的设定是两人同时说话时,要将两人分开,同时识别两个人的语音。他们的设定是在两个人同时说话时,只跟踪其中一个人的声音。在这个设定下我们也有一些有趣的进展。

 

不过这些都还属于研究性工作,还没有放在产品中。

 

机器之心:持续预测与适应的模型情况如何?

 

俞栋:这类模型的研究已经在我们的实验室列项了,应该是一个很有「做头」的问题,但是目前还没有很多进展。值得一提的可能是预测双向 RNN 的反向状态使单向 RNN 的性能提升的工作。

 

机器之心:声学前后端从独立优化到联合优化的进展如何?

 

俞栋:相比于独立优化,现在业界的情况是前后端联合优化已经占了大多数。

 

前后端联合优化把前端和后端紧紧绑在了一起,好处是如果前后端系统都是自己开发的,那么效果会很好,坏处是一旦换一个前端/后端之后,会出现整体效果变差的情况。

 

因此,我们要针对场景进行不同的设计。在某些场景下,我们还是要分割开做优化。例如在声学前端,降低噪声和减小变形(distortion)就是一对要同时考虑的矛盾的目标,需要针对场景做特殊优化。


从语音的角度看先验


机器之心:Yann LeCun 和 Christopher Manning 之前在斯坦福进行了一场关于先验的讨论。LeCun 倾向于使用尽可能少的先验,因为作出的假设总会和一小部分数据冲突,从而限制最后能达到的最低错误率。而 Manning 倾向于认为当前的模型都还是「差劲的学习者」,学界需要对先验以及结构更有信心,尝试引入更丰富的结构,允许人们在更少的时间内、以更少的数据获得更高效的学习器。站在语音研究者的角度,您如何看待先验这一问题?

 

俞栋:先验的作用可以说是一个哲学问题了。这两位学者给出的答案不同,更多是因为他们的优化目标和场景不同。

 

LeCun 希望找到一个更通用的算法,因此当然希望假设越少越好,跟问题越不相关越好。因为如果你针对某个特定问题加入先验,那么模型虽然可以保证这个问题的效果,但肯定会在某一些场景下工作得不好。

 

Chris Manning 的立场则不同:他面对的问题是,给定场景、给定现有模型,在这种前提下,如何把某一任务做好。这时,把先验,尤其是网络结构类型的先验添加进去,是会提升系统性能的。

 

这个问题也和训练数据量有很大的关系。如果想要训练一个能区分猫和老虎的分类器,但训练数据只有 5 幅猫的图片和 5 幅老虎的图片,该如何选择模型呢?这个设定下,大部分模型都无法工作,只有一种模型可以,就是添加了非常强的先验的模型。比如说,模型设计者预先知道,老虎都在山里跑,背景是绿色的,猫都在家里,背景是灰白色的。那么把这个先验知识加进去,就可以设计一个简单的模型,测试一下背景颜色,做个分类,大部分情况下就能分对了。但这些知识不是机器学出来的,是人放入的先验知识

 

如果训练数据非常多,接近无穷多,这时情况更有利于 LeCun 的观点,也就是做假设的意义不大甚至可能因假设不对起反作用。如果训练数据不足,就需要人在模型设计阶段把问题的特殊结构提取出来,添加进模型作为先验。不过在现实场景下的绝大多数问题训练数据都是不够多的,所以某种先验或者偏置是必须的。当然,最好的情况是机器自己能够发现或总结这些特殊结构并加以利用。

 

机器之心:现阶段的语音处理方面的数据量更接近于哪一端?

 

俞栋:在处理语音问题时,我们加了非常多先验在里面。如果目标是做通用的语音识别器,语音的数据量还差得远,比如一个人说话声音与两个人、三个人混合的声音就差很远,所以语音的数据量还是远远不够的。

 

但如果我们只关心某个特殊的应用场景比如「语音搜索」,那么在有些公司比如谷歌数据量有可能达到基本满足要求的程度,但是这个专门为语音搜索定制的识别器,一旦被用于识别其他内容,效果可能就没那么好了。

 

现在业界还是愿意为了产品性能去投入采集数据的,因此初始训练数据集的量不会太少。存在的问题是在产品投放出去之前,采集到的数据很可能和最终产品形态不一致,不是独立同分布,因此训练效果不够好,只能用这部分数据 bootstrap 启动一个系统。等到系统投放到市场上,采集到真实数据,再用真实数据提升模型性能,进入一个正向的循环。

 

数据是一个非常重要的资源,数据量不够,很多模型没办法用,即使用上了,也达不到期望的要求。这是因为现在的机器学习有三个很重要的因素,分别是数据,计算力,和算法,这三者加起来,才是最后系统的性能。三个要素中,如果缺少任何一个,系统的性能就会差很多。如果算法比别人好一点,但是数据比别人少很多,那么算法的优势很可能弥补不了数据的缺失,反之亦然。

 

机器之心:卷积神经网络(CNN)和循环神经网络(RNN)均可以被看做先验的一种,卷积神经网络通常被用于空间数据而循环 神经网络多被用于时序数据,如何看待用卷积神经网络处理时序数据这样的搭配呢?

 

俞栋:如果卷积的层数足够多的话,理论上,它是可以和循环神经网络具有同等的能力的。

 

信号处理学科中,有两种滤波器,分别叫做 IIR 和 FIR(Infinite Impulse Response Filter vs. Finite Impulse Response Filter),它们和两种神经网络相对应。IIR 就相当于 RNN 模型,FIR 就相当于 CNN 模型,在卷积了足够多层之后,它就能利用足够远的信息(类似 RNN)。就好像在很多场景下,FIR 滤波器是可以近似 IIR 滤波器的。

 

因此 CNN 和 RNN 都是「可选的」,选择时就要考虑其他因素:例如 RNN 相对于 CNN(或者是 IIR 相对于 FIR)训练难度就要更大一些。但同时 RNN 更容易对变化很大的序列建模,比如依赖关系忽大忽小的情景,可能更适用 LSTM 这样的模型来实现。


腾讯西雅图实验室:现状与目标




机器之心:能否为我们更新下西雅图实验室的现状?主要关注哪些研究方向?

 

俞栋:西雅图实验室成立于去年 5 月,更偏向基础研究,主攻方向是语音处理和自然语言处理。这与深圳实验室强调「研究+应用并重」侧重点稍有不同。

 

过去一年,腾讯 AI Lab 西雅图实验室从我 1 个员工,发展到现在有 10 余名全职语音和自然语言处理方向的员工;从没有办公场地,到办公室装修好,还在社区内举办了开放日活动。进展还不错。

 

目前语音识别研究人员的方向主要可以分为声学前端、声学模型和语言模型三类。

 

其中,声学前端主要围绕在家居和车载环境所必须的麦克风阵列、降噪、去回声、去混响、唤醒等功能;声学模型部分主要关注如何将声学信号建模;最后,语言模型则对语言文字本身建模。

 

语言模型技术相对稳定,不同语言之间差异也不是特别大,一般擅长声学模型的研究员也能做出不错的语言模型,但是声学前端和声学模型所需的技能是完全不同的,因此要分别找到合适的人选。

 

机器之心:实验室是如何选择研究方向的呢?

 

俞栋:我们会考虑两件事,一个是今天的问题:当下公司和客户有哪些需求,如何去解决。另一个是明天的问题:两到三年乃至更久之后,市场会有什么样的需求?

 

比如今天已经非常常见的远场识别,其实在几年前还是鲜为人知,或者说处于不被认可的状态。这是因为一方面大家觉得没有应用场景,另一方面远场技术还没发展到一定地步,没有太好的结果。但是,亚马逊的 Echo 问世之后,大家发现这个问题的解决虽然达不到完美,但也做得还可以了。当时 Echo 的团队进行远场研究已经有 3 、4 年了。他们就是在相关技术还不成熟的时候,更多地考虑了「明天」乃至「后天」问题,对 3 到 5 年后,我们会有何种应用、需要什么技术进行预判,然后进入这一领域,投入研究。

 

机器之心:未来实验室有哪些计划呢?

 

俞栋:在人员方面,西雅图实验室今年的人员数预计会达到 20。当然,由于人工智能火热的现状,以及我们希望维持一个较高的选人标准,这目标会有一定挑战性。

 

2018 年,西雅图团队会和深圳的实验室团队继续加强合作。希望能在进行前沿研究的同时,给今天的问题提供一些较好的解决方案。

 

此外,去年我们花了很多时间在从头建立系统上,现在,不少组件已经准备好了,我们可以更快速地进行一些更有意思的研究,希望对学术界和我们自己的产品性能提升都有一些好的影响。

]]> 原文: https://ift.tt/2NcX410
RSS Feed

机器知心

IFTTT

人工智能芯片·脑芯编 | 窥脑究竟,织网造芯

<序>

你信不信有一天,硅工造的芯片会写诗?

如果信,

那说好的"诗三百,一言以蔽之,思无邪"

还真的是"无邪"么?

如果不信,请读下面这一首:

昨夜神风送层云,几重卷积几重生

梦里不问形与令,烛台簇华照单影

真北路头初相见,一见泰坦误终身

半入豪门寻极乐,日起地平寒武竞

如果要给这诗一个赏析,大概可以是一个忧伤的故事。

天边云的变换复杂,而我却是半梦半醒,我在想一个人,想第一次和他相见,想他的风流倜傥,想他的英雄飒爽。

如果你是个文科生,或许你会嘲笑这首连平仄都不满足的劣质诗歌,

韵脚也押的有些蹩脚,故事更是为赋新词强说愁。

如果你是理科男,或许对这种思春的小情怀不以为然。

不过,那是因为你们并没有看懂这首诗。

因为这诗暗藏了一个密码,藏着人工智能遇到摩尔定律后蹭出的火花。

另外,这诗不是人工智能的产物,只是矽说在这个人工智能横行的年代里特有的小情怀。

但可能在不远的将来,人工智能将会开车,会翻译,会调情,也会写下更美的篇章。想解开这个人工智能与集成电路的秘密?关注矽说,找到"脑芯编"的推送,我们一句一句地读下去。

〈一〉

昨夜神风送层云

在我读书的时候,人工智能(Artifical Intelligence, AI)从来就是CS (Computer Science)的天下,哪有电路撺掇的份。那时候的码农们或许会挂着机器学习,数据挖掘,支持向量机,压缩感知……但从来没有一次,电路的突破是由人工智能推动的。可是在今天,如果你打开半导体行业的利好消息,有多少不是和人工智能,深度学习相关的?

过去一个月,光在半导体巨头们发生的人工智能的故事就足以吊足大家的胃口。何况,这还是只是很多硅工心目中的人工智能元年。

是什么导致了半导体行业"AI一出惊天下"的巨大改变?矽说推出"脑芯编"系列,为你揭秘类脑芯片的过去,现在与未来。

从人工智能到神经网络
神经网络

在人工智能改变半导体行业之前,在AI领域发生过一场"华山论剑",耗时数载,最终以"深度学习神经网络(Deep Learning Neural Network)"一统江湖落下帷幕。该过程腥风血雨,而主角"神经网络"的遭遇更堪比张无忌、杨过,历经少年时的悲惨遭遇,被无数号称时代"大侠"嗤之以鼻,但终究是主角光环加持,加之得外家指点,十年一剑终成大器,号令天下,谁敢不从。

本篇对这里其中的故事,按下不表,有好事者,可以去各处搜搜,剧情精彩不容错过。但是这里还是要感谢,在神经网络经历最寒冬的时候,一众大牛如 Yann LeCun (读作杨雷昆,不是严立春!!), Geoffrey Hinton等的默默坚守,才有神经网络的今天。不过他们也早已是Facebook / Google的首席科学家,如今功成名就,也是吾等小辈无法企及的高度。

Yann LeCun,   Geoffrey Hinton

神经网络在人工智能领域,属于机器学习一路的分支。所谓机器学习,就是让电脑经过学习后代替人脑做出判断,理解,甚至诀定(还记得赢了李世石的AlphaGo么?)而所谓深度学习和浅学习的区别在于设计者是否告诉电脑的学习策略。最常见的例子是大家电子邮件系统里的垃圾邮件分类,一般一份邮件是否是垃圾邮件,在于它是否满足一些标准,比如是不是群发的,有没有叫你买东西的广告,是不是图片占有比例很高,然后发信人有没有被举报过等等……这些标准都是一个个特征,如果一种机器学习方法规定了学习的特征与策略,那就是浅学习,如果没有规定,需要算法本身去挖掘策略,那就是深度学习。

所以,深度学习的一大隐忧就是——人类并不知道算法本身究竟在想什么?所以如果哪天他在他负责的算法下隐藏了一个暗算/统治人类的bug,那我们就被彻底奴役了。

不过,所谓"庄生晓梦迷蝴蝶",人类自己究竟是不是被另外一个物种开发出来的一种新智慧呢?然后,那个物种是不是已经被我们灭绝了呢?我们并没有答案。

码农老师教的生物课

为了弄清这横扫千军的神经网络,首先让我们来上一堂不污的生物课。既然叫神经网络,那起源就是生物脑科学。很久以前,人们发现一个单神经细胞(也叫神经元)包括输入(树突dendrites),激活判断(细胞核nucleus),输出(轴突axon)和与下一个神经元的连接关系(突触synapse)。如果用数学抽象出来过程,就是把一堆输入经过线性组合以后经过一个阈值判断,然后输出给下一级。这样一个简单的神经元就形成。把足够多个神经元连起来就能实现神经网络了。

上面两个图就是真实的神经元和它的数学模型。不过我还是要吐槽下:

谁起的中文?

树突与突触傻傻分不清 

从上述神经元的提出,到许多仿生的算法结构的研究,如多层感知器

(Multilayer Perceptron) ,脉冲神经元(Spiking Neural)之类的,经过了一个甲子的时间,特别但都没没什么巨大的成功,原因有两个:

(1)当时的集成电路计算规模与资源远没有达到面向实际应用的需求,仔细去研究神经元的数学模型,会发现每个神经元有若干个权重和成累加计算 。他对应汇编可以大致是如下流程:

累加器清零                        (mov)

循环开始                            (branch)

从存储器中加载权重          (load)

从存储器/外设中加载输入   (load)

权重 乘以 输入                    (multiply)

累加                                    (add)

判断是否重新循环              (goto)

激活函数                             (??)

输出 存储                           (store)

对于一个N输入的神经元要走N个循环,这对于上个世纪的单核单线程的CPU,实在是操作难度太复杂。这也就是为什么当流水线与并行处理 不断壮大的近十年,神经网络的发展得到了迅猛发展。

(2)连得不对。这短短四个字,虽说的轻巧,但要找到连连看的窍门,着实花费了多少人的青春?关于怎么连,各位看官先别着急,且听脑芯编下回分解。

作为脑芯编的开篇,今天就到这里,所谓"神风送层云"指的就是集成电路的下一个增长点或许就在在人工智能领域取得巨大成功的神经网络硬件实现上。

]]> 原文: https://ift.tt/2N8KT50
RSS Feed

机器知心

IFTTT

2018年6月29日星期五

特朗普又双叒出手限制中国,硅谷科技公司先慌了

李林 李根 假装发自 阳谷(CA)量子位 出品 | 公众号 QbitAI

一想到众多美国公司流淌着中国血液,特朗普似乎就坐立难安。

从今年年初起至今,路透社、彭博社、《纽约时报》、《华尔街日报》等主流媒体一直在前赴后继地报道一件大事的进展:美国政府想要限制中国在美投资

美国政府想出的限制方式不断花样翻新,但是大方针始终没有变:一切都是为了阻击中国在芯片、5G、人工智能、机器人等前沿技术领域的崛起。

目前最新情况是,美国参议院和众议院已经分别通过新法规,赋予美国外国投资委员会(Committee on Foreign Investment in the United States, CFIUS)更高权力,让它基于国家安全风险审查各类交易,其中包括外国资本对美国企业的股权投资、合资企业的建立,以及军事基地附近的地产交易等等。

美国政府还会在接下来几周里讨论、出台最终版本的法规。

今天,美国还开始了对出口管制政策的审查,想让这种管制和对外国资本在美投资的限制保持一一致,共同加强对美国国家安全的保护。目的,就在于不让中国等国家获得美国的"敏感技术"。

量子位询问了一些中国背景的硅谷VC朋友,他们目前情绪稳定。认为在中美贸易战背景下,美国政府对有中国政府背景的基金的审查是不可避免的趋势。

同时也表示,国内上市公司出海设立的基金不会受影响:硅谷VC不仅有丹华资本等政府资金作为LP的基金,也有越来越多的国内上市公司、个人LP支持的早期基金,比如Centregold Capital(南方中金环境股份有限公司在硅谷设立的美元基金,专注于投资环保、生物医疗类项目)等,这类基金不会受相关政策影响。

但是,美国的创业公司和它们的早期投资人有些坐不住了。

这不是断粮吗?

惊惶硅谷

据路透社报道,有消息称美国大牌风投基金Andreessen Horowitz针对创业公司发出了提醒:如果这些公司有中国背景投资者,就有遭到政府审查的可能。

对于硅谷创业公司而言,这显然不是个好消息。来自中国的资本进入愈加困难,拿了中资背景的钱,还要面临被美国政府审查的风险。

人工智能公司Skymind就是一例。

Skymind开发了Deeplearning4j深度学习平台和SKIL深度学习系统,来自中国的投资方有腾讯和香港曼图资本。

在业务运营上,这家公司和中国的联系也非常紧密。

比如去年12月,Skymind与福建省数字福建云计算运营有限公司达成合作,共同建设、运营"福建人工智能(AI)公共服务平台";

今年6月中旬,Skymind又和华为联手,面向行业应用,发布了华为硬件+Skymind软件的人工智能服务器。

阿里、中国联通等中国公司,也都在Skymind的客户之列。这家创始团队几乎没有中国脸孔的公司,面向中国的"技术出口"不可谓不多。

作为从中国融资的硅谷前辈,Skymind联合创始人、CEO Chris Nicholson对与这条融资之路已经不再看好。他对路透社说:"一些初创公司从中国获得融资的窗口可能正在关闭。"

研究公司荣鼎咨询(Rhodium Group)追踪的数据显示,中国对美国的投资金额正在逐年下降。2016年,中国在美国投资了大约450亿美元(约合2830亿元人民币),而2017年下滑到290亿美元,今年前5个月更是锐减到只有18亿美元。

对美国创业公司来说更严重的是,美国政府针对的,还不仅仅是中国资本。特朗普周二曾在白宫接受采访时说:"这种做法将针对所有国家。"

CFIUS的审查范围,包括所有可能向外国政府披露关键基础设施信息的投资。

掌握核心科技,就意味着以后可能只有本土资金可用。用这种方式与限制中国投资,大有杀敌八百自损一千之势。

对于美国政府限制向海外出口敏感技术的政策,《纽约时报》也曾有过类似评论:这对美国公司的影响可能比限制中国投资更大,因为它会限制美国公司向中国销售一系列产品的能力。

来自中国的诚意

让美国政府反复纠结的中国资本,究竟有多大规模?

风投数据公司CB Insights发布过一组数据:

2012至2015年间,中国投资者向美国开展的科技投资交易增长超过5倍。这一趋势在2015至2016年间趋平。中国2017年的投资交易将出现38%的同比下滑。

2016年和2017年以来,中国投资者参与的美国科技交易只有不到一半处于早期阶段(种子轮、天使轮和A轮)。与此同时,2017年上半年,中国投资者参与的美国科技交易有19%属于B轮。

过去5年,人工智能的确成为中国投资者在美国的投资重点:自从2013年以来,中国投资者参与了美国人工智能公司的41笔交易。

但CB Insights的报告中,投资美国AI公司最活跃的是腾讯、创新工场等这样的产业及市场化VC。

然而即便如此,一想到中国资本正在抢夺美国高科技初创公司,特朗普可能真的睡不好觉——这些资本的LP构成说法,本质上可能只是说辞而已。

早在去年6月,美国方面便开始传出风声:将加强关于中国公司在硅谷投资的审查,以更好地保护被认为对美国国家安全至关重要的敏感技术。

这在当时不仅引发资本方面的担忧,而且也引来不少硅谷初创公司的呵呵。

一方面是加州民主自由的传统,另一方面则是中国资本的诚意。

比起老成持重的美国VC,中国VC显得更富"攻击性":愿意给更高的估值,决策速度更快,也更愿意承担风险。

由于国内优质AI项目估值越涨越高,不少国内VC开始面向硅谷砸钱,然后发现硅谷项目不仅质量高,估值还比国内便宜,一下子如获至宝。

李开复就感叹,如果要排序的话,国内AI项目估值>硅谷>加拿大。

而且在一些相似项目上,国内甚至是硅谷的2倍甚至更高,而这还是硅谷项目开始遭遇中国资本哄抢之后。

所以如果你是一家base硅谷的创业项目,同样拿钱发展,你是愿意拿美国土著VC的TS——100万美元占股20%?还是中国背景VC的TS——200万美元占股20%,而且还有投后服务帮你开拓中国市场。

创业的本质就是生意,真金白银的认可就是最大诚意。

然而现在,商人出身的特朗普说:创业有国界,拿投资可以不讲新钱旧钱,但得讲政治。

所以也有硅谷VC告诉量子位,为了生意不受限制,也有越来越多的硅谷华人背景的基金不仅从国内募资,同时也在寻求美国本土、欧洲、东南亚等地区的LP支持,并且进展顺利,这类基金不会受政策影响。

当然,特朗普执政的这2年,资本方面的限制只是一方面,还有更多看不见的"小动作"。

比如中国科技创业者前往美国参加国际学术顶会,限制就在明显增加。

单就今年CVPR,不少国内优秀AI公司的赴美签证就遭到大规模check,而且给这些中国AI人才都是一年一签——意味着明年签注可能还要被check,类似的做法,历史罕见。

撕裂美国政府

其实,如何限制中国在美国的投资,以及美国公司向中国出口"关键"技术,在美国政府内部经历了一场漫长的拉锯战。

在近期曝光的各种方案之中,通过CFIUS来审查交易已经算是相对温和的结果。

今年3月,美国财政部的强硬派为了限制中国资本赴美投资,曾考虑动用1977年出台的《国际紧急状态经济权力法》。这份法案曾经用来对伊朗和苏丹实施经济制裁。它将庞大的权力赋予总统,如果真的启用,特朗普就能阻止交易进行、取消交易、冻结外国资产。

以财政部长努钦(Steven Mnuchin)为代表的温和派则一直担心,这种强硬的措施可能会抑制经济发展,扰乱金融市场。

漫长的拉锯战之后,目前看来,似乎是温和派胜出了。

One More Thing

特朗普为美国2020大选的宣传活动已经开始了。这周在威斯康星州的演讲中,特朗普表示,将面向支持者们推出新的应援周边:

绿帽子。

上一轮大选中总戴着红色帽子的特朗普说,会把新的竞选口号"Keep America Great!"印在绿色帽子上,因为绿色代表钞票(美元)。

—欢迎大家关注我们的专栏:量子位 - 知乎专栏诚挚招聘量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。量子位 QbitAI · 头条号签约作者վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 https://ift.tt/2tLkAZU
RSS Feed

RSS5

IFTTT

特朗普又双叒出手限制中国,硅谷科技公司先慌了

李林 李根 假装发自 阳谷(CA)量子位 出品 | 公众号 QbitAI

一想到众多美国公司流淌着中国血液,特朗普似乎就坐立难安。

从今年年初起至今,路透社、彭博社、《纽约时报》、《华尔街日报》等主流媒体一直在前赴后继地报道一件大事的进展:美国政府想要限制中国在美投资

美国政府想出的限制方式不断花样翻新,但是大方针始终没有变:一切都是为了阻击中国在芯片、5G、人工智能、机器人等前沿技术领域的崛起。

目前最新情况是,美国参议院和众议院已经分别通过新法规,赋予美国外国投资委员会(Committee on Foreign Investment in the United States, CFIUS)更高权力,让它基于国家安全风险审查各类交易,其中包括外国资本对美国企业的股权投资、合资企业的建立,以及军事基地附近的地产交易等等。

美国政府还会在接下来几周里讨论、出台最终版本的法规。

今天,美国还开始了对出口管制政策的审查,想让这种管制和对外国资本在美投资的限制保持一一致,共同加强对美国国家安全的保护。目的,就在于不让中国等国家获得美国的"敏感技术"。

量子位询问了一些中国背景的硅谷VC朋友,他们目前情绪稳定。认为在中美贸易战背景下,美国政府对有中国政府背景的基金的审查是不可避免的趋势。

同时也表示,国内上市公司出海设立的基金不会受影响:硅谷VC不仅有丹华资本等政府资金作为LP的基金,也有越来越多的国内上市公司、个人LP支持的早期基金,比如Centregold Capital(南方中金环境股份有限公司在硅谷设立的美元基金,专注于投资环保、生物医疗类项目)等,这类基金不会受相关政策影响。

但是,美国的创业公司和它们的早期投资人有些坐不住了。

这不是断粮吗?

惊惶硅谷

据路透社报道,有消息称美国大牌风投基金Andreessen Horowitz针对创业公司发出了提醒:如果这些公司有中国背景投资者,就有遭到政府审查的可能。

对于硅谷创业公司而言,这显然不是个好消息。来自中国的资本进入愈加困难,拿了中资背景的钱,还要面临被美国政府审查的风险。

人工智能公司Skymind就是一例。

Skymind开发了Deeplearning4j深度学习平台和SKIL深度学习系统,来自中国的投资方有腾讯和香港曼图资本。

在业务运营上,这家公司和中国的联系也非常紧密。

比如去年12月,Skymind与福建省数字福建云计算运营有限公司达成合作,共同建设、运营"福建人工智能(AI)公共服务平台";

今年6月中旬,Skymind又和华为联手,面向行业应用,发布了华为硬件+Skymind软件的人工智能服务器。

阿里、中国联通等中国公司,也都在Skymind的客户之列。这家创始团队几乎没有中国脸孔的公司,面向中国的"技术出口"不可谓不多。

作为从中国融资的硅谷前辈,Skymind联合创始人、CEO Chris Nicholson对与这条融资之路已经不再看好。他对路透社说:"一些初创公司从中国获得融资的窗口可能正在关闭。"

研究公司荣鼎咨询(Rhodium Group)追踪的数据显示,中国对美国的投资金额正在逐年下降。2016年,中国在美国投资了大约450亿美元(约合2830亿元人民币),而2017年下滑到290亿美元,今年前5个月更是锐减到只有18亿美元。

对美国创业公司来说更严重的是,美国政府针对的,还不仅仅是中国资本。特朗普周二曾在白宫接受采访时说:"这种做法将针对所有国家。"

CFIUS的审查范围,包括所有可能向外国政府披露关键基础设施信息的投资。

掌握核心科技,就意味着以后可能只有本土资金可用。用这种方式与限制中国投资,大有杀敌八百自损一千之势。

对于美国政府限制向海外出口敏感技术的政策,《纽约时报》也曾有过类似评论:这对美国公司的影响可能比限制中国投资更大,因为它会限制美国公司向中国销售一系列产品的能力。

来自中国的诚意

让美国政府反复纠结的中国资本,究竟有多大规模?

风投数据公司CB Insights发布过一组数据:

2012至2015年间,中国投资者向美国开展的科技投资交易增长超过5倍。这一趋势在2015至2016年间趋平。中国2017年的投资交易将出现38%的同比下滑。

2016年和2017年以来,中国投资者参与的美国科技交易只有不到一半处于早期阶段(种子轮、天使轮和A轮)。与此同时,2017年上半年,中国投资者参与的美国科技交易有19%属于B轮。

过去5年,人工智能的确成为中国投资者在美国的投资重点:自从2013年以来,中国投资者参与了美国人工智能公司的41笔交易。

但CB Insights的报告中,投资美国AI公司最活跃的是腾讯、创新工场等这样的产业及市场化VC。

然而即便如此,一想到中国资本正在抢夺美国高科技初创公司,特朗普可能真的睡不好觉——这些资本的LP构成说法,本质上可能只是说辞而已。

早在去年6月,美国方面便开始传出风声:将加强关于中国公司在硅谷投资的审查,以更好地保护被认为对美国国家安全至关重要的敏感技术。

这在当时不仅引发资本方面的担忧,而且也引来不少硅谷初创公司的呵呵。

一方面是加州民主自由的传统,另一方面则是中国资本的诚意。

比起老成持重的美国VC,中国VC显得更富"攻击性":愿意给更高的估值,决策速度更快,也更愿意承担风险。

由于国内优质AI项目估值越涨越高,不少国内VC开始面向硅谷砸钱,然后发现硅谷项目不仅质量高,估值还比国内便宜,一下子如获至宝。

李开复就感叹,如果要排序的话,国内AI项目估值>硅谷>加拿大。

而且在一些相似项目上,国内甚至是硅谷的2倍甚至更高,而这还是硅谷项目开始遭遇中国资本哄抢之后。

所以如果你是一家base硅谷的创业项目,同样拿钱发展,你是愿意拿美国土著VC的TS——100万美元占股20%?还是中国背景VC的TS——200万美元占股20%,而且还有投后服务帮你开拓中国市场。

创业的本质就是生意,真金白银的认可就是最大诚意。

然而现在,商人出身的特朗普说:创业有国界,拿投资可以不讲新钱旧钱,但得讲政治。

所以也有硅谷VC告诉量子位,为了生意不受限制,也有越来越多的硅谷华人背景的基金不仅从国内募资,同时也在寻求美国本土、欧洲、东南亚等地区的LP支持,并且进展顺利,这类基金不会受政策影响。

当然,特朗普执政的这2年,资本方面的限制只是一方面,还有更多看不见的"小动作"。

比如中国科技创业者前往美国参加国际学术顶会,限制就在明显增加。

单就今年CVPR,不少国内优秀AI公司的赴美签证就遭到大规模check,而且给这些中国AI人才都是一年一签——意味着明年签注可能还要被check,类似的做法,历史罕见。

撕裂美国政府

其实,如何限制中国在美国的投资,以及美国公司向中国出口"关键"技术,在美国政府内部经历了一场漫长的拉锯战。

在近期曝光的各种方案之中,通过CFIUS来审查交易已经算是相对温和的结果。

今年3月,美国财政部的强硬派为了限制中国资本赴美投资,曾考虑动用1977年出台的《国际紧急状态经济权力法》。这份法案曾经用来对伊朗和苏丹实施经济制裁。它将庞大的权力赋予总统,如果真的启用,特朗普就能阻止交易进行、取消交易、冻结外国资产。

以财政部长努钦(Steven Mnuchin)为代表的温和派则一直担心,这种强硬的措施可能会抑制经济发展,扰乱金融市场。

漫长的拉锯战之后,目前看来,似乎是温和派胜出了。

One More Thing

特朗普为美国2020大选的宣传活动已经开始了。这周在威斯康星州的演讲中,特朗普表示,将面向支持者们推出新的应援周边:

绿帽子。

上一轮大选中总戴着红色帽子的特朗普说,会把新的竞选口号"Keep America Great!"印在绿色帽子上,因为绿色代表钞票(美元)。

—欢迎大家关注我们的专栏:量子位 - 知乎专栏诚挚招聘量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。量子位 QbitAI · 头条号签约作者վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 https://ift.tt/2tLkAZU
RSS Feed

RSS5

IFTTT

JavaScript 之父联手近万名开发者集体讨伐 Oracle:给 JavaScript 一条活路吧!- InfoQ 每周精要848期

「每周精要」 NO. 848 2024/09/21 头条 HEADLINE JavaScript 之父联手近万名开发者集体讨伐 Oracle:给 JavaScript 一条活路吧! 精选 SELECTED C++ 发布革命性提案 "借鉴"Rust...