2017年12月11日星期一

AI炒股轻松赚大钱?Too naive

夏乙 允中 编译整理量子位 出品 | 公众号 QbitAI

让AI代替人类炒股,多么美妙的目标。

机器学习技术能在不需要人类预先编写规则的情况下,让计算机从数据中寻找模式。从机器人到天气预报,再到语言翻译,甚至开车,这项技术驱动着多个领域的进步。

为什么不能用它来搞定金融市场呢?

这种想法,已经引发了投资公司之间的军备竞赛,各家本来就已经非常依赖数学的基金开始争抢他们所能找到的顶尖计算机科学家和统计学家。

这项技术一开始表现还不错。今年业绩最好的两家对冲基金——Quantitative Investment Management LLC和Teza Capital Management LLC今年分别上涨了68%和50%,他们都说能做出这么好的业绩,机器学习功不可没。

然而,在投资上持续全面押注机器学习的公司寥寥无几。

对哈里托诺夫(Michael Kharitonov)来说,基于机器学习建立对冲基金不是件易事:难度是想象中的三倍,耗时是预期的三倍。

"我们基本是屡战屡败。"他说。

哈里托诺夫是Voleon Group的联合创始人,这是首批全面拥抱机器学习的投资公司之一。从他们这些年的挣扎中,可以大致理解其他公司的选择。

将机器学习用在金融交易中,我们先要清楚:这项技术在其他领域取得的那些成就,在交易上可能并不适用。金融交易是一个更杂乱的环境,模式总是被掩盖着。

哈里托诺夫说,他们一开始就想用机器学习做交易预测,但是"就是不管用"。

哈里托诺夫现年54岁,他还有一位43岁的联合创始人麦考利夫(Jon McAuliffe)。他们分别是计算机和统计学博士,都曾在最古老、最成功的量化投资基金D.E. Shaw Group做研究员。

那个时候,今年时不时登一下首富宝座的贝佐斯还没有创立亚马逊,刚好是哈里托诺夫的上司。

哈里托诺夫和麦考利夫多年来一直坚信,他们学过的机器学习技术天生适用于投资,有着可靠的方法论指导。但他们年轻时,计算机还不够快,可用的数据集还不够大。

到2007年,新数据集和足够厉害的计算机出现了,于是哈里托诺夫和麦考利夫创立了Voleon,用机器学习做投资。公司的名字没什么特别含义,编了这么一个词只是因为域名刚好能注册。

在融资过程中,他们遇到了挑剔的机构投资者。

要知道,机器学习这项技术和量化交易的常用方法有一些不同,它不需要科学家提出假设、写出算法给计算机执行,而是由人类为自己算计提供大量数据,然后让它自己找出模式。

实际上,就是计算机自己写出算法,用来做预测,但问题在于,计算机不会告诉你它是怎么得出这个结果的。

市面上的那些量化基金能够很清晰地解释出自己的算法在做什么,但是Voleon的机器学习算法是怎么想的,只有计算机自己知道。

这种方法固有的神秘性,让Voleon根本无法向潜在投资者解释他们买卖股票的理由。计算机所找出的模式对人类来说太细微了,很难理解。

"很多人都完全不感兴趣,但后来我们终于找到了能理解机器学习潜力的人。"哈里托诺夫说。

2008年,全球市场深陷金融危机之中时,Voleon开始了真实交易。

接下来整整两年,这家公司都在亏钱。2009年市场回暖也无济于事。

Voleon的创始团队坚持按着原来的方向走下去,他们坚信自己在处理机器学习最难的问题之一,要想赚钱,需要先花时间打磨系统。

他们所面对的基本问题,是市场太混乱了。到目前为止,机器学习系统表现很好的领域都有一个共同特征:模式本质上是重复的,于是就更易于辨别,围棋、开车都是如此。

而金融市场有更多噪声,它持续受到新事件的影响,而这些新事件之间的关系,也总是在变化。

市场变幻莫测的本质也就意味着投资者刚刚找出昨天的关联,想要运用它来做投资,它就消失了。在机器学习的其他应用场景里,都没有这样的问题。比如说用机器学习来做语音识别,人类语音的基本性质,基本是不变的。

尽管Voleon的创立在某种意义上讲,是受到了机器学习在其他领域成功案例的激励,但是到了2011年底,Voleon创始人已经抛弃了从其他应用借来的大部分技术。取而代之的是创始人自己为不守规矩的市场定制的系统。

麦考利夫整洁的办公室里,书架上放着《大样本理论要素》、《BDA3》等书籍。哈里托诺夫的办公室里装满了他拆开的电路板,以及好多堆满纸的箱子。

他们面临的一个挑战是,需要使用每秒股票的价格变化,来运行15年的股市模拟。这涉及太字节的数据。Voleon需要在几个小时内模拟完毕,但他们耗时数天甚至数周。

那时候,整个公司有10到12个人。这个团队尝试购买更多的计算力,使用为电脑游戏打造的GPU。但仍然耗时太长。

麦考利夫在办公室里痛苦的度过了好几个月。最终,他攻克了这个问题。2012年7月,Voleon推出第二代平台。

哈里托诺夫说,蛮力的方法没用,标准技术也没用。

他们的新交易系统带来了更多的利润,以及更多投资者的兴趣。据一位投资者透露,在旗舰基金2011年出现小幅回升后,Voleon 2012年的业绩是34.9%,2013年是46.3%。

然而,两年之后,Voleon去年遭遇滑铁卢,亏损超过9%。这也引起了部分投资者的担心。

"没什么比回撤更引人深思",哈里托诺夫说:"去年我们学到了很多"。

今年比去年好。截止今年10月,这家管理着18亿美元资金的公司,其旗舰基金上涨约4.5%。自成立以来,其年化收益率大约是10.5%。

业绩波动、策略复杂……并没有阻止Voleon的发展。这家基金正在扩大投资目标,投资标的不仅限于美国和欧洲的股市,还包括加州大学伯克利分校附近的一座楼。

在机器学习技术的帮助下,Voleon每天交易价值超过10亿美元的股票。在这个过程中,他们对买入或者卖出一只股票的原因,没有丝毫兴趣。

哈里托诺夫说,机器学习系统越是具有预测性,人们就越难理解它要做什么。有理论认为人类思维主要用于处理三个维度的情景,数十个乃至数百个维度的任务则是机器学习系统擅长的领域。这些维度之间的关系,往往是非线性的。

"这并不意味着我们不会考虑发生了什么",麦考利夫说,Voleon的研究人员会设计"扰动",来研究各种输入在预测系统中的权重,以及解决过拟合等问题。

Voleon的电脑不仅在财务信息中寻找关系,而且在非财务数据中寻找关系。其中包括卫星图像、航运舱单、信用卡收据、社交媒体情绪等等。这些目标数据,可以帮助寻找某个行业的健康状况或者商品供应的变化。

显然,没有人会透露自己使用了哪种数据,如何进行的评估。Voleon也是一样,谨慎的保护着自己的技术和策略隐私。

这个"神秘"的机制让投资者不安,哈里托诺夫理解这种感受,不过他坚信:电脑犯错的情况要比人类少得多。

"机器学习在财务预测领域的应用还在早期阶段",他说:"一切才刚刚开始"。

推荐阅读

Ref:WSJ http://ift.tt/2jONCU9

—完—

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2ygF39l
RSS Feed

RSS5

IFTTT

大咖来信|李开复:北美AI时局图

李根 发自 凹非寺量子位 报道 | 公众号 QbitAI

编者按:创新工场董事长、创新工场AI工程院院长李开复博士,近期受邀前往北美,参与了一系列AI相关活动,不仅在MIT分享了来自中国的AI进展,还与"AI三巨头"——Hinton、LeCun和Bengio,进行了面对面交流。

他也看到了Google、Facebook和微软在AI人才组织和发展中,遭遇的竞争和挑战。

此外,加拿大也因为AI火热,正希望把握住史无前例的机遇,那加拿大又是如何鼓励AI、发展AI的呢?

不妨一起听听李开复博士的《北美AI见闻录》。

李开复 Giulia Marchi/Bloomberg

量子位的读者:

你们好!

这一次去北美,最核心的议程是参加MIT计算机科学与人工智能实验室(CSAIL)和数字经济中心(IDE)主办的AI会议,主题是:AI和就业的未来。

避而不谈的AI挑战

先谈谈大会观感吧,这一次Google、Facebook和微软等美国AI巨头公司都有代表参加,但最令我惊讶的是这些巨头这次表现出的AI态度。

原本以为会谈论很多人工智能对未来和人类的影响,比如工作、隐私、网络安全等等,好的坏的都会探讨,但会上并没有听到太多"负面"的探讨。

这次这三家公司的代表演讲,显得有些避重就轻。谈谈技术,讲讲科技与未来,然后说下自己正在进行的研究,偶尔也谈论政策,但多半还是与特朗普有关,签证移民政策之类的,基本没有谈论人工智能正在带来的挑战。

三家公司代表中,只有Google的代表谈到一点人工智能带来的挑战,不过他主要讲的还是未来三年的计划,比如Google帮助培训人类更好使用AI,核心是帮助其他领域科学家利用AI把工作做得更好。对于如何解决客服失业或工作被替换的问题,并不涉及。

我在这三家公司都有高管朋友,他们后来跟我私下解释说,公司公关部门清楚地告诉过他们,不可以谈人工智能潜在的负面影响,要尽可能把人工智能描述得很美好,一切都是"人+机器=3",人很强,机器很强,加起来更强。

今后人类还会学着跟机器一起彼此增强,就业问题也会迎刃而解,其他技术问题也会迎刃而解,现在正是巨大生产力的大发展时期,机器正在能够帮助人类解决各种不适合人解决的问题,所以不要过于谈论一些不太美好的事情。

我觉得这不是一种负责任的公关策略和行为。因为这三家公司作为美国甚至全球AI的领跑者,熟知最新技术进展,也知道"水能载舟亦能覆舟"的道理,不能只向大众传达"载舟"。

我觉得在人工智能的探讨中,一定要有责任感,不仅要分享带来的巨大机会,也要分享未来潜在的挑战,然后让更多力量参与进来去解决问题,我觉得这才是比较负责任的做法。

对中国AI发展心态复杂

另一个令我惊讶的是美国公司为核心的AI组织,对中国AI的态度。

美国有很多组织在讨论AI方面的议题,比如Partnership on AI,应该算是大家相对比较认可的非盈利机构,但现在组织成员都是美国的公司,这就有些"尴尬"。

中国的AI进展也很快,你不请中国公司加入进来探讨,自己琢磨如何在AI发展上给开发者制定规则、做出约束,或者如何避免AI在道德和社会层面带来负面影响,这都有些不切实际。

而且你不请中国公司参与,自己做一大堆决定,最后中国公司在你们警惕的那些红线和边缘地带进展飞快,反而失去了一开始成立组织的初衷。

这些都是一目了然的事实。但美国这帮AI公司也有一些私下的顾虑。他们觉得在隐私等相关问题上,中美两国的道德接受度是完全不同的,比如装摄像头,中国可能接受、执行起来比美国要快,你这个组织制定的约束,也不一定就能发挥效力。

总之给我的核心感觉是:Partnership on AI这样的组织没有底气认为自己可以获得中国公司的支持,但可能因为没有中国公司参与,他们又会因之有损失。因为他们一边自己达成共识、相互约束,另一边中国AI快速发展,他们就会落后。

如果放在过去,可能问题不大,因为美国的科技远远领先其他国家,但现在AI来讲,中国和美国之间的差距并不大,所以我觉得美国这些AI组织如今境地有些尴尬,身陷两难。

OpenAI 离初衷越来越远

谈到AI相关的组织,可能国内知名度比较高的是马斯克和YC创始人Sam发起的OpenAI,当时也招揽到了不少人才,不过最近正在遇到危机,很多核心人物都走了,我也从一些核心人员那里听到一些原因。

先说说离开的代表性大牛吧。Pieter Abbeel,是加州大学伯克利分校教授,强化学习领域的大牛。去年4月正式离开伯克利加入OpenAI,从顾问转为全职研究员。最近从OpenAI走了,可以说影响不小。

他离职以后,创业做了一家名为Embodied Intelligence的公司,教机器人学习,比如去做一些从人的动作学习、然后做重复性工作的算法开发。

这家公司里,还有OpenAI的前研究员Peter Chen和Rocky Duan,他们都是Abbeel在伯克利的博士生。所以相当于师徒一起离开了吧。

另一个大牛是lan Goodfellow,GAN的发明者,他之前离开Google大脑团队加入OpenAI,今年又重新回到了Google大脑。

我这次也跟OpenAI中待过的人聊过,大家离职的核心原因其实挺一致。

首先,当初加入OpenAI,是希望把AI做得更开放,不要垄断在几家大公司手中,毕竟当时马斯克发起成立OpenAI,说的就是Google为代表的公司太强势,把超过50%的业界顶级AI专家招入麾下,长此以往,可能会导致AI技术的垄断或者走向其他方向。

其次,OpenAI发起时,对于AI发展存在的一些挑战,比如隐私、安全、威胁人类工作之类的问题,他们希望用更开放的方法去做,这样等到AI真正发展起来后,才不会让少数公司独大,这是第二个共同理想。

还有第三个原因,没有怎么被拿出来谈。到OpenAI这样的组织待着,要比学校里薪资高出3-5倍,这些学术人才到了OpenAI,也还是能推进自己的研究,加上马斯克的口才及个人魅力,所以创立之初,人才纷至沓来。

但现在快2年过去,也就有一些问题暴露了。

首先,回过头去看,OpenAI真正产出的成绩并不多,外界能感知的就更少,比如开源之类的,进度有限。

其次,他们做的一些项目展示,比如机器人帮你端菜、洗碗、刷盘子什么的都挺好的,他们自己也觉得很有意思,但相对AlphaGo这种项目,一对比就被打得落花流水。

OpenAI也参与了AI打DOTA之类的,但DOTA的影响力,没有AlphaGo引起的那样大,后来DeepMind团队在医疗等领域,业界影响也很大。

另外,还有与马斯克相关的原因。因为OpenAI这个组织跟马斯克关联紧密,所以有时候马斯克自己其他公司的事情,比如特斯拉,也让OpenAI的科学家帮忙出主意什么的,有点成为马斯克的"智囊团"了。这个本身算不上特别大的问题,但毕竟会让有些人才心里不舒服。

当然,资金方面也不是没有问题。最开始说将有10亿美元来支持OpenAI,但这并不意味着一下子就有这样一笔钱打到账上,而是一个目标数字,主要投资人也是马斯克和他的几位朋友,并且以马斯克的为主,钱的问题自然是个隐患。

所以,OpenAI这样一个当初被寄予厚望的AI组织,希望他可以抗衡Google,现在看来基本不可能了。

OK,那既然谈到了Google,顺着说说Google、Facebook和微软这三家AI巨头,当前在AI方面给我留下的印象吧。

AI三巨头公司

Google

先说下Google。Google内部相当于有三个部门在搞AI,Google大脑、Google云,还有DeepMind。

Google大脑和Google云,都在Google治下,应该协调起来更好一些。

但DeepMind被收购至今,还有相当大的自主决策权,所以不可避免会与另外两股Google内部力量产生竞争,比如DeepMind和Google同时进入一些城市,也会有彼此抢人才的状况。

当然,他们内部会讲得很好,说建立两个机会来争取人才,对公司利益也是最大化。但这样的竞争既然存在,双方的合作就也不会特别完美,问题还是有的,只是细节不能多说了,大家都是朋友。

这三家AI巨头公司中,其实给我印象最深的还是Facebook,因为近几年来,我认为把厉害人才用得比较好的是Facebook。

Facebook

核心自然是Yann LeCun用Facebook的资源聚拢了很大一批人才。

LeCun这次也在MIT发表了演讲,没有谈到有大突破的东西,但会议中还是有不少可以参考的东西。他特别提到了华人AI科学家何恺明,以及后者的Mask R-CNN。

LeCun说现在的进展是5年前难以想象的,对于机器学习,从识别过程走上理解过程,进展都比之前顺利很多。我觉得在他的演讲交流中,我见到了他过去没有看到过的那种乐观。

他在会议中提到一个小突破,即用现在能够针对一张图问一个比较复杂的问题,然后这个问题能被拆分成很多部分,用自我深层的思考去综合解决。

比如你问这样一个问题:图中哪个物体离黄色球最远?系统就能拆分成距离黄色球最近、最远的物体,然后生成不同的网络,用一整套训练来完成这样一个任务。

我觉得这给他带来了比较大的乐观态度,特别是GAN方面的推进。会让他觉得可以做更聪明的理解型的决策模型,或者说,比他之前预计的时间要更快吧。

我看过他之前的发言,对AGI(通用人工智能)的预计非常长远,认为当前还没有任何工程根据,但这次他变得更乐观了,他也多次谈到Facebook内部推进的速度。

这种推进的核心组织,自然是他掌管的FAIR(Facebook AI Research),可能之前多多少少有一些曝光,不过中国读者可能不太清楚这个机构的内部情况。

FAIR现在是一个规模120多人的机构了,整体水平非常高,应该说放眼全球,除Google之外的最厉害的一个AI科研机构,非FAIR莫属。

因为FAIR既在Facebook,又能够有很大的自由度做事情,LeCun个人也吸引了很多顶级的人,这些人再彼此号召,就会让FAIR的江湖地位不断提高,这算是Facebook在人才吸引方面很好的一个策略吧。

不过也不是没有问题,体现在研究机构和产品部门的"矛盾"上。

LeCun原本有一个对接部门,这个部门主要负责把FAIR的技术产品化。因为LeCun个人拒绝做产品,他自己是科研大师,更多技术研发的初衷和兴趣,也都是科研式的。

LeCun甚至严苛到要求团队不要过分使用Facebook的数据,要更多在标准数据集的基础上做出有震撼力的东西,不然凭借Facebook的数据,他会觉得"胜之不武",而且结果上,也不知道究竟是Facebook的数据厉害,还是他厉害。

这一点上,我不是很同意他的观点,但我理解他的想法。LeCun学术出身,很爱学术方面的竞争,他也肯定希望别人输得心服口服,所以他希望让他的研究基础跟别人相对公平,于是要求团队尽量不要用Facebook的数据,要用标准数据,这样结果上与他人就有可比性。

反正LeCun可以说是一个中规中矩的科研人,他想把事情做到最好,不想占便宜,用数据取胜,这一点上是让人尊敬的,是一个科学家推动科学技术进步的态度。

但我觉得有其中两个问题。

第一,当你不用最大数据集的时候,你不知道是不是已经把技术做到了最好。因为最好的技术,可能是适用数据最广泛的技术,所以是不是因此丢失了最好的算法,这是值得讨论的。

第二是完全以学术方式来做技术,拒绝适用内部大量数据,可能会让自己技术应用到产品上出问题。

这两个问题,也不是看不到表现。最近Facebook内部也有一些调整,有一个部门原来因FAIR专门成立,希望把FAIR的技术转换为标准产品,让它能够应用到公司各个不同的领域。

但最近那个部门的领导换成了一个中国人,他来了以后就跟FAIR不太互睬,比如有些技术,语音之类的,他就觉得自己可以做,不用完全等着FAIR。当然视觉方面还是依赖于FAIR的突破,但内部的分歧已经有苗头了。

学术派 VS. 工程派

这其中也有一个蛮常见的问题,一家公司想要在技术上更领先,就会涉及人才网罗和组织,而很多科技人才哪里找,还是高校和科研单位为主吧。

所以科技公司里,如果你单纯招一批研究的人才进行研究,怎么跟产品工程的人融合,是一个非常大的挑战。

Facebook和微软,采用的都是"象牙塔"模式。

公司组织架构下做一个象牙塔,用这个象牙塔吸引最顶级的人才,让他有大量的数据可以用,可以写论文、做研究,一切没有限制,自由科研。然后再通过产品工程师,把技术实现应用。

最早这么做的应该是比尔盖茨,当时推出微软研究院后,以非常快的速度,把顶级人才吸引了过来。后来百度也用这样的方法,效果也不错。

但是类似"象牙塔"的结构和系统,问题也很明显。

这些企业内部的科研组织,确实吸引了科研大牛,进而吸引一批小牛,很快就组成了很厉害的科研单位。但因为给于了足够大的自由度,也很容易与产品部门有隔阂,科研学术的这部分人,会觉得我写了这么多论文、获了这么多奖、又是各种fellow,你这种产品小朋友按照我意思做就行,我告诉你人脸识别ready了,你就赶快放到Facebook产品中去,或者不放拉倒。

但是产品部门的人也会有想法:公司的钱都是我赚的,广告的钱也都是因为产品弄来的,公司的流量和产品后期也都有我的付出,你们这些人加入后,就写写论文,也没有对公司营收产生实际价值,地位却比我高,赚的钱也比我多,我就不服气。

所以研究和产品在大公司里对抗,不是什么意料之外的事情。

或者也有公司会直接把研究和产品放在一起,就都是为产品服务的,这样就不存在两个部门打仗了。比如阿里巴巴,可能吸引的人学术地位没有那么高,但阿里会更注重学术群体和产品工程师的融合。Google也差不多,你看两个部门都是科研部门,但最终都是要做产品,都以产品服务公司。

所以现在来讲,大公司里搞研究机构,吸引学术人才进来,差不多就这两种模式吧,各有利弊。不过显然"象牙塔"模式,给足学术大牛空间自由科研,最后还是因为和产品部门之间的隔阂矛盾而离开,这种案例并不少见了。

这算是企业研究院的"魔咒"。现在虽然FAIR很强大,但从IBM到富士施乐,都没有摆脱魔咒。企业一帆风顺的时候当然不会表现出问题,然而一旦遭遇财务问题,象牙塔就会开始崩塌。

所以这算是一个悬而未决的问题吧,蛮有意思,也蛮值得思考。

与"AI三巨头"游

"AI三巨头公司"之外,这一次收获比较大的是跟"AI三巨头"分别进行了交流,其实我和这"AI三巨头"之前也有一些关系,不过有些交集是这次交流才知道的。

与Geoffrey Hinton会面交流

Geoffrey Hinton,我在CMU念博士时,他在CMU任教,是我隔壁室友的导师,我博士时候做一个项目,还请他参考签字,不过以为都过去很多年了,他应该不记得了。但Hinton记性很好,他见面跟我说记得我,还跟我说当时他给自己的博士学生买了很多硬盘,最后都被我"掠夺一空",拿去装语音数据了。所以蛮令我意外。

另一个让Hinton谈论较多的话题是中国,他其实跟中国有很深的缘分,他家族亲戚里,有两位是中国最早的永久居民,当时跟着毛主席到延安,后来成为中国的1号和2号永久居民。他们全家都是社会主义的信奉者,他也深受影响,不然当初也不会离开CMU到多伦多大学去,他说当时就是觉得CMU拿了太多美国国防部的钱,走得太近了,自己不喜欢。

Hinton是一个很感性很随性的人,想到什么说什么,没有太多的顾忌,性情中人吧。我还问他是不是可以认为TDNN对后来的CNN有启发,他回答说TDNN其实就是最早的CNN,这话公开说出去可能会引起轩然大波,不过Hinton就是这样一个很感性的大牛。

比较遗憾的是他目前的身体情况,70多岁,虽然还很硬朗,但他不能坐,只能站着或躺着,所以他坐不了越洋飞机,即便对中国很感兴趣,也没办法。他现在一半时间在Google,另一半的时间就在多伦多大学。

与Yann LeCun会面交流

LeCun,之前履历经历上的交集不多,不过这次见面,他倒说了一件我们都有印象的事。LeCun说,他在AT&T的时候,他的老板告诉他希望挖我过去工作,我也记得这件事,虽然当时并没有认真考虑过去AT&T工作,不过LeCun竟然记得,也是让我有些意外。

跟LeCun交流很有意思,主要谈到了AI当前的技术进展,以及他领导的FAIR。最深刻的印象是他比以前更乐观了,说明AI技术突破给了他很大的信心,另外Facebook网罗的人才,也让他很振奋。

与Yoshua Bengio会面交流

Yoshua Bengio,我跟他是第一次见面,不过大家之间也有一些共同"纽带",他的博士导师Renato De Mori也是做语音的,所以之前我跟他导师有一些交流和合作。

Bengio给我的印象是:很像一个政治领袖——口才很好、温文尔雅,话少而精。

他的团队现在做得也很大,而且刚好赶上加拿大史无前例的机遇,所以也是举国上下围绕AI在开展一些事情,这个可能比较值得聊一聊,之前科技相关的话题,聊到加拿大的时候也不多。

AI:加拿大史无前例的机遇

加拿大这个国家,不要看她领土面积很大,但人口不多,而且居住条件也没那么好,比较冷,整个生活方式也相对安定,跟美国有一些不同。

现在,因为深度学习的原因,Hinton和Bengio把多伦多和蒙特利尔,建设成了人工智能重镇。

于是加拿大政府在国家层面、省层面,都有层层拨款去推动人工智能。一定程度有点像我们国务院的白皮书,下发到省市,然后具体去做。

主要涉及两个城市,一个是多伦多,另一个是蒙特利尔,两个城市又以高校为核心,其实是围绕Hinton和Bengio为核心,形成了多伦多和蒙特利尔两大AI研究机构。

多伦多主要有两所大学,一所叫多伦多大学,另一所是滑铁卢大学,有点类似我们的清华北大吧,这两所大学的精神领袖是Hinton,他在这里组织起了一个强有力的科研组织:Vector。

蒙特利尔也有两所高校,分别是蒙特利尔大学和麦吉尔大学,精神领袖是Bengio,也形成了一个科研组织:MILA。

这两个组织,现在网罗了大批AI相关的人才,基本以加拿大人为主。那为什么会形成这两大组织呢?与刚才说到加拿大想抓住AI历史机遇有关。

为了留住人才,打造AI重镇,加拿大从国家到省层面,都在拨款,或者倡议当地企业捐助基金鼓励人才进行AI研究。

这些钱拨下来以后怎么用?最直接地方式就是给教授加薪,细节没公布,但与AI相关的教授,差不多直接涨薪3倍。

于是问题也随之而来,因为做AI就能加薪,所以不少传统学科的教授,比如语音学的教授,也想挤进来,也说自己的研究与AI相关,那如何判断、决定谁加薪就成了大问题。

这时候Bengio和Hinton在其中就发挥了作用,他们相当于承担起"判断"和"选拔"人才的角色。

于是Hinton就组织起Vector,Bengio组织起MILA。

而且这两个机构也不虚,可以说把优质的教授都拉了进来。一方面,这些人才基本都在做机器学习;另一方面,这也都是可能会被Google和Facebook挖走的人。所以这两大组织实际上起到了"保护人才"、"留住人才"的作用。

也挺有意思,之前Google和Facebook在很多大学挖人,在美国挖得比较顺利,比如Google挖了一半的斯坦福教授,CMU自动驾驶团队被Uber集体端走之类的,但是在加拿大这边反而动静不大。

虽然也跟美国公立学校的组织制度有关,比如不能直接涨薪3倍之类的,但无论如何,这两大组织在加拿大AI人才保留方面,起到了关键作用。

讲一个我知道的例子吧,Google为某个加拿大博士开出了顶级offer,年薪百万美元,但这个人最后还是留在了加拿大继续科研,所以可以想见加拿大AI研究人才薪资方面的不俗。

具体的话,Hinton和Vector,Bengio和MILA在推进AI研究的方法上,有些不一样。

Hinton的做法,是圈了30多个多伦多科技公司,围绕着这些科研人员,让他们在公司里面做顾问、CTO,只要不荒废科研工作,开放性质地进行AI研究。

所以打个比方,Hinton的做法是正在让多伦多变成一个大的孵化器,我们这次还去看了很多多伦多的公司,整体感觉像是到了一个大卖场,很多项目都很便宜,可以简单列个比较关系吧:

加拿大普通AI项目的估值两大教授学生AI项目的估值硅谷AI公司的估值中国AI公司的估值。

不过一方面是中国公司估值确实贵,另一方面也是因为加拿大环境原因,他们在数据方面跟中国不能比,对于商业的理解,也不一样。

Element AI创始团队成员

Bengio和MILA在蒙特利尔,核心做了一家Element AI的公司,腾讯还参与了投资。

这家公司做什么呢?其实有点跟创新工场AI工程院类似,找一些垂直领域,然后基于AI打造解决方案,他们的团队现在有100多人,全球范围招聘,光融资就募到了很多钱。

虽然加拿大整体市场也不大,数据也不多,但也有一些优势领域,比如社保做得很好,医疗数据做的很好。所以是不是可以有些机会?可能还是有的。

总之这一次在加拿大,最强烈的感觉就是加拿大对于百年难得一遇的机遇的渴望,政府大力推动,给高校设立"讲座教授"之类的基金,花很多钱让顶级教授留在加拿大任职。

然后地方省份,也拿出钱来支持学校、围绕企业和孵化器进行发展。他们也都在考虑,如何全球吸引人才,如何做AI的培训。

所以加拿大整体展现出来的就是围绕AI,打造生态,培养创业环境的态势。

OK,时间关系,这一次先围绕"北美见闻"聊这些话题,下一次我们再围绕"北美如何看中国AI"进行交流。

祝冬安。

大咖来信往期回顾

大咖来信 | 李国杰院士:AI创业光靠算法走不远,警惕命运魔咒

大咖来信 | 姚期智:算法将推动下一波AI浪潮,现有革新将达极限

大咖来信 | 李开复:美国AI见闻录

—完—

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2C2Iu6n
RSS Feed

RSS5

IFTTT

大咖来信|李开复:北美AI时局图

李根 发自 凹非寺量子位 报道 | 公众号 QbitAI

编者按:创新工场董事长、创新工场AI工程院院长李开复博士,近期受邀前往北美,参与了一系列AI相关活动,不仅在MIT分享了来自中国的AI进展,还与"AI三巨头"——Hinton、LeCun和Bengio,进行了面对面交流。

他也看到了Google、Facebook和微软在AI人才组织和发展中,遭遇的竞争和挑战。

此外,加拿大也因为AI火热,正希望把握住史无前例的机遇,那加拿大又是如何鼓励AI、发展AI的呢?

不妨一起听听李开复博士的《北美AI见闻录》。

李开复 Giulia Marchi/Bloomberg

量子位的读者:

你们好!

这一次去北美,最核心的议程是参加MIT计算机科学与人工智能实验室(CSAIL)和数字经济中心(IDE)主办的AI会议,主题是:AI和就业的未来。

避而不谈的AI挑战

先谈谈大会观感吧,这一次Google、Facebook和微软等美国AI巨头公司都有代表参加,但最令我惊讶的是这些巨头这次表现出的AI态度。

原本以为会谈论很多人工智能对未来和人类的影响,比如工作、隐私、网络安全等等,好的坏的都会探讨,但会上并没有听到太多"负面"的探讨。

这次这三家公司的代表演讲,显得有些避重就轻。谈谈技术,讲讲科技与未来,然后说下自己正在进行的研究,偶尔也谈论政策,但多半还是与特朗普有关,签证移民政策之类的,基本没有谈论人工智能正在带来的挑战。

三家公司代表中,只有Google的代表谈到一点人工智能带来的挑战,不过他主要讲的还是未来三年的计划,比如Google帮助培训人类更好使用AI,核心是帮助其他领域科学家利用AI把工作做得更好。对于如何解决客服失业或工作被替换的问题,并不涉及。

我在这三家公司都有高管朋友,他们后来跟我私下解释说,公司公关部门清楚地告诉过他们,不可以谈人工智能潜在的负面影响,要尽可能把人工智能描述得很美好,一切都是"人+机器=3",人很强,机器很强,加起来更强。

今后人类还会学着跟机器一起彼此增强,就业问题也会迎刃而解,其他技术问题也会迎刃而解,现在正是巨大生产力的大发展时期,机器正在能够帮助人类解决各种不适合人解决的问题,所以不要过于谈论一些不太美好的事情。

我觉得这不是一种负责任的公关策略和行为。因为这三家公司作为美国甚至全球AI的领跑者,熟知最新技术进展,也知道"水能载舟亦能覆舟"的道理,不能只向大众传达"载舟"。

我觉得在人工智能的探讨中,一定要有责任感,不仅要分享带来的巨大机会,也要分享未来潜在的挑战,然后让更多力量参与进来去解决问题,我觉得这才是比较负责任的做法。

对中国AI发展心态复杂

另一个令我惊讶的是美国公司为核心的AI组织,对中国AI的态度。

美国有很多组织在讨论AI方面的议题,比如Partnership on AI,应该算是大家相对比较认可的非盈利机构,但现在组织成员都是美国的公司,这就有些"尴尬"。

中国的AI进展也很快,你不请中国公司加入进来探讨,自己琢磨如何在AI发展上给开发者制定规则、做出约束,或者如何避免AI在道德和社会层面带来负面影响,这都有些不切实际。

而且你不请中国公司参与,自己做一大堆决定,最后中国公司在你们警惕的那些红线和边缘地带进展飞快,反而失去了一开始成立组织的初衷。

这些都是一目了然的事实。但美国这帮AI公司也有一些私下的顾虑。他们觉得在隐私等相关问题上,中美两国的道德接受度是完全不同的,比如装摄像头,中国可能接受、执行起来比美国要快,你这个组织制定的约束,也不一定就能发挥效力。

总之给我的核心感觉是:Partnership on AI这样的组织没有底气认为自己可以获得中国公司的支持,但可能因为没有中国公司参与,他们又会因之有损失。因为他们一边自己达成共识、相互约束,另一边中国AI快速发展,他们就会落后。

如果放在过去,可能问题不大,因为美国的科技远远领先其他国家,但现在AI来讲,中国和美国之间的差距并不大,所以我觉得美国这些AI组织如今境地有些尴尬,身陷两难。

OpenAI 离初衷越来越远

谈到AI相关的组织,可能国内知名度比较高的是马斯克和YC创始人Sam发起的OpenAI,当时也招揽到了不少人才,不过最近正在遇到危机,很多核心人物都走了,我也从一些核心人员那里听到一些原因。

先说说离开的代表性大牛吧。Pieter Abbeel,是加州大学伯克利分校教授,强化学习领域的大牛。去年4月正式离开伯克利加入OpenAI,从顾问转为全职研究员。最近从OpenAI走了,可以说影响不小。

他离职以后,创业做了一家名为Embodied Intelligence的公司,教机器人学习,比如去做一些从人的动作学习、然后做重复性工作的算法开发。

这家公司里,还有OpenAI的前研究员Peter Chen和Rocky Duan,他们都是Abbeel在伯克利的博士生。所以相当于师徒一起离开了吧。

另一个大牛是lan Goodfellow,GAN的发明者,他之前离开Google大脑团队加入OpenAI,今年又重新回到了Google大脑。

我这次也跟OpenAI中待过的人聊过,大家离职的核心原因其实挺一致。

首先,当初加入OpenAI,是希望把AI做得更开放,不要垄断在几家大公司手中,毕竟当时马斯克发起成立OpenAI,说的就是Google为代表的公司太强势,把超过50%的业界顶级AI专家招入麾下,长此以往,可能会导致AI技术的垄断或者走向其他方向。

其次,OpenAI发起时,对于AI发展存在的一些挑战,比如隐私、安全、威胁人类工作之类的问题,他们希望用更开放的方法去做,这样等到AI真正发展起来后,才不会让少数公司独大,这是第二个共同理想。

还有第三个原因,没有怎么被拿出来谈。到OpenAI这样的组织待着,要比学校里薪资高出3-5倍,这些学术人才到了OpenAI,也还是能推进自己的研究,加上马斯克的口才及个人魅力,所以创立之初,人才纷至沓来。

但现在快2年过去,也就有一些问题暴露了。

首先,回过头去看,OpenAI真正产出的成绩并不多,外界能感知的就更少,比如开源之类的,进度有限。

其次,他们做的一些项目展示,比如机器人帮你端菜、洗碗、刷盘子什么的都挺好的,他们自己也觉得很有意思,但相对AlphaGo这种项目,一对比就被打得落花流水。

OpenAI也参与了AI打DOTA之类的,但DOTA的影响力,没有AlphaGo引起的那样大,后来DeepMind团队在医疗等领域,业界影响也很大。

另外,还有与马斯克相关的原因。因为OpenAI这个组织跟马斯克关联紧密,所以有时候马斯克自己其他公司的事情,比如特斯拉,也让OpenAI的科学家帮忙出主意什么的,有点成为马斯克的"智囊团"了。这个本身算不上特别大的问题,但毕竟会让有些人才心里不舒服。

当然,资金方面也不是没有问题。最开始说将有10亿美元来支持OpenAI,但这并不意味着一下子就有这样一笔钱打到账上,而是一个目标数字,主要投资人也是马斯克和他的几位朋友,并且以马斯克的为主,钱的问题自然是个隐患。

所以,OpenAI这样一个当初被寄予厚望的AI组织,希望他可以抗衡Google,现在看来基本不可能了。

OK,那既然谈到了Google,顺着说说Google、Facebook和微软这三家AI巨头,当前在AI方面给我留下的印象吧。

AI三巨头公司

Google

先说下Google。Google内部相当于有三个部门在搞AI,Google大脑、Google云,还有DeepMind。

Google大脑和Google云,都在Google治下,应该协调起来更好一些。

但DeepMind被收购至今,还有相当大的自主决策权,所以不可避免会与另外两股Google内部力量产生竞争,比如DeepMind和Google同时进入一些城市,也会有彼此抢人才的状况。

当然,他们内部会讲得很好,说建立两个机会来争取人才,对公司利益也是最大化。但这样的竞争既然存在,双方的合作就也不会特别完美,问题还是有的,只是细节不能多说了,大家都是朋友。

这三家AI巨头公司中,其实给我印象最深的还是Facebook,因为近几年来,我认为把厉害人才用得比较好的是Facebook。

Facebook

核心自然是Yann LeCun用Facebook的资源聚拢了很大一批人才。

LeCun这次也在MIT发表了演讲,没有谈到有大突破的东西,但会议中还是有不少可以参考的东西。他特别提到了华人AI科学家何恺明,以及后者的Mask R-CNN。

LeCun说现在的进展是5年前难以想象的,对于机器学习,从识别过程走上理解过程,进展都比之前顺利很多。我觉得在他的演讲交流中,我见到了他过去没有看到过的那种乐观。

他在会议中提到一个小突破,即用现在能够针对一张图问一个比较复杂的问题,然后这个问题能被拆分成很多部分,用自我深层的思考去综合解决。

比如你问这样一个问题:图中哪个物体离黄色球最远?系统就能拆分成距离黄色球最近、最远的物体,然后生成不同的网络,用一整套训练来完成这样一个任务。

我觉得这给他带来了比较大的乐观态度,特别是GAN方面的推进。会让他觉得可以做更聪明的理解型的决策模型,或者说,比他之前预计的时间要更快吧。

我看过他之前的发言,对AGI(通用人工智能)的预计非常长远,认为当前还没有任何工程根据,但这次他变得更乐观了,他也多次谈到Facebook内部推进的速度。

这种推进的核心组织,自然是他掌管的FAIR(Facebook AI Research),可能之前多多少少有一些曝光,不过中国读者可能不太清楚这个机构的内部情况。

FAIR现在是一个规模120多人的机构了,整体水平非常高,应该说放眼全球,除Google之外的最厉害的一个AI科研机构,非FAIR莫属。

因为FAIR既在Facebook,又能够有很大的自由度做事情,LeCun个人也吸引了很多顶级的人,这些人再彼此号召,就会让FAIR的江湖地位不断提高,这算是Facebook在人才吸引方面很好的一个策略吧。

不过也不是没有问题,体现在研究机构和产品部门的"矛盾"上。

LeCun原本有一个对接部门,这个部门主要负责把FAIR的技术产品化。因为LeCun个人拒绝做产品,他自己是科研大师,更多技术研发的初衷和兴趣,也都是科研式的。

LeCun甚至严苛到要求团队不要过分使用Facebook的数据,要更多在标准数据集的基础上做出有震撼力的东西,不然凭借Facebook的数据,他会觉得"胜之不武",而且结果上,也不知道究竟是Facebook的数据厉害,还是他厉害。

这一点上,我不是很同意他的观点,但我理解他的想法。LeCun学术出身,很爱学术方面的竞争,他也肯定希望别人输得心服口服,所以他希望让他的研究基础跟别人相对公平,于是要求团队尽量不要用Facebook的数据,要用标准数据,这样结果上与他人就有可比性。

反正LeCun可以说是一个中规中矩的科研人,他想把事情做到最好,不想占便宜,用数据取胜,这一点上是让人尊敬的,是一个科学家推动科学技术进步的态度。

但我觉得有其中两个问题。

第一,当你不用最大数据集的时候,你不知道是不是已经把技术做到了最好。因为最好的技术,可能是适用数据最广泛的技术,所以是不是因此丢失了最好的算法,这是值得讨论的。

第二是完全以学术方式来做技术,拒绝适用内部大量数据,可能会让自己技术应用到产品上出问题。

这两个问题,也不是看不到表现。最近Facebook内部也有一些调整,有一个部门原来因FAIR专门成立,希望把FAIR的技术转换为标准产品,让它能够应用到公司各个不同的领域。

但最近那个部门的领导换成了一个中国人,他来了以后就跟FAIR不太互睬,比如有些技术,语音之类的,他就觉得自己可以做,不用完全等着FAIR。当然视觉方面还是依赖于FAIR的突破,但内部的分歧已经有苗头了。

学术派 VS. 工程派

这其中也有一个蛮常见的问题,一家公司想要在技术上更领先,就会涉及人才网罗和组织,而很多科技人才哪里找,还是高校和科研单位为主吧。

所以科技公司里,如果你单纯招一批研究的人才进行研究,怎么跟产品工程的人融合,是一个非常大的挑战。

Facebook和微软,采用的都是"象牙塔"模式。

公司组织架构下做一个象牙塔,用这个象牙塔吸引最顶级的人才,让他有大量的数据可以用,可以写论文、做研究,一切没有限制,自由科研。然后再通过产品工程师,把技术实现应用。

最早这么做的应该是比尔盖茨,当时推出微软研究院后,以非常快的速度,把顶级人才吸引了过来。后来百度也用这样的方法,效果也不错。

但是类似"象牙塔"的结构和系统,问题也很明显。

这些企业内部的科研组织,确实吸引了科研大牛,进而吸引一批小牛,很快就组成了很厉害的科研单位。但因为给于了足够大的自由度,也很容易与产品部门有隔阂,科研学术的这部分人,会觉得我写了这么多论文、获了这么多奖、又是各种fellow,你这种产品小朋友按照我意思做就行,我告诉你人脸识别ready了,你就赶快放到Facebook产品中去,或者不放拉倒。

但是产品部门的人也会有想法:公司的钱都是我赚的,广告的钱也都是因为产品弄来的,公司的流量和产品后期也都有我的付出,你们这些人加入后,就写写论文,也没有对公司营收产生实际价值,地位却比我高,赚的钱也比我多,我就不服气。

所以研究和产品在大公司里对抗,不是什么意料之外的事情。

或者也有公司会直接把研究和产品放在一起,就都是为产品服务的,这样就不存在两个部门打仗了。比如阿里巴巴,可能吸引的人学术地位没有那么高,但阿里会更注重学术群体和产品工程师的融合。Google也差不多,你看两个部门都是科研部门,但最终都是要做产品,都以产品服务公司。

所以现在来讲,大公司里搞研究机构,吸引学术人才进来,差不多就这两种模式吧,各有利弊。不过显然"象牙塔"模式,给足学术大牛空间自由科研,最后还是因为和产品部门之间的隔阂矛盾而离开,这种案例并不少见了。

这算是企业研究院的"魔咒"。现在虽然FAIR很强大,但从IBM到富士施乐,都没有摆脱魔咒。企业一帆风顺的时候当然不会表现出问题,然而一旦遭遇财务问题,象牙塔就会开始崩塌。

所以这算是一个悬而未决的问题吧,蛮有意思,也蛮值得思考。

与"AI三巨头"游

"AI三巨头公司"之外,这一次收获比较大的是跟"AI三巨头"分别进行了交流,其实我和这"AI三巨头"之前也有一些关系,不过有些交集是这次交流才知道的。

与Geoffrey Hinton会面交流

Geoffrey Hinton,我在CMU念博士时,他在CMU任教,是我隔壁室友的导师,我博士时候做一个项目,还请他参考签字,不过以为都过去很多年了,他应该不记得了。但Hinton记性很好,他见面跟我说记得我,还跟我说当时他给自己的博士学生买了很多硬盘,最后都被我"掠夺一空",拿去装语音数据了。所以蛮令我意外。

另一个让Hinton谈论较多的话题是中国,他其实跟中国有很深的缘分,他家族亲戚里,有两位是中国最早的永久居民,当时跟着毛主席到延安,后来成为中国的1号和2号永久居民。他们全家都是社会主义的信奉者,他也深受影响,不然当初也不会离开CMU到多伦多大学去,他说当时就是觉得CMU拿了太多美国国防部的钱,走得太近了,自己不喜欢。

Hinton是一个很感性很随性的人,想到什么说什么,没有太多的顾忌,性情中人吧。我还问他是不是可以认为TDNN对后来的CNN有启发,他回答说TDNN其实就是最早的CNN,这话公开说出去可能会引起轩然大波,不过Hinton就是这样一个很感性的大牛。

比较遗憾的是他目前的身体情况,70多岁,虽然还很硬朗,但他不能坐,只能站着或躺着,所以他坐不了越洋飞机,即便对中国很感兴趣,也没办法。他现在一半时间在Google,另一半的时间就在多伦多大学。

与Yann LeCun会面交流

LeCun,之前履历经历上的交集不多,不过这次见面,他倒说了一件我们都有印象的事。LeCun说,他在AT&T的时候,他的老板告诉他希望挖我过去工作,我也记得这件事,虽然当时并没有认真考虑过去AT&T工作,不过LeCun竟然记得,也是让我有些意外。

跟LeCun交流很有意思,主要谈到了AI当前的技术进展,以及他领导的FAIR。最深刻的印象是他比以前更乐观了,说明AI技术突破给了他很大的信心,另外Facebook网罗的人才,也让他很振奋。

与Yoshua Bengio会面交流

Yoshua Bengio,我跟他是第一次见面,不过大家之间也有一些共同"纽带",他的博士导师Renato De Mori也是做语音的,所以之前我跟他导师有一些交流和合作。

Bengio给我的印象是:很像一个政治领袖——口才很好、温文尔雅,话少而精。

他的团队现在做得也很大,而且刚好赶上加拿大史无前例的机遇,所以也是举国上下围绕AI在开展一些事情,这个可能比较值得聊一聊,之前科技相关的话题,聊到加拿大的时候也不多。

AI:加拿大史无前例的机遇

加拿大这个国家,不要看她领土面积很大,但人口不多,而且居住条件也没那么好,比较冷,整个生活方式也相对安定,跟美国有一些不同。

现在,因为深度学习的原因,Hinton和Bengio把多伦多和蒙特利尔,建设成了人工智能重镇。

于是加拿大政府在国家层面、省层面,都有层层拨款去推动人工智能。一定程度有点像我们国务院的白皮书,下发到省市,然后具体去做。

主要涉及两个城市,一个是多伦多,另一个是蒙特利尔,两个城市又以高校为核心,其实是围绕Hinton和Bengio为核心,形成了多伦多和蒙特利尔两大AI研究机构。

多伦多主要有两所大学,一所叫多伦多大学,另一所是滑铁卢大学,有点类似我们的清华北大吧,这两所大学的精神领袖是Hinton,他在这里组织起了一个强有力的科研组织:Vector。

蒙特利尔也有两所高校,分别是蒙特利尔大学和麦吉尔大学,精神领袖是Bengio,也形成了一个科研组织:MILA。

这两个组织,现在网罗了大批AI相关的人才,基本以加拿大人为主。那为什么会形成这两大组织呢?与刚才说到加拿大想抓住AI历史机遇有关。

为了留住人才,打造AI重镇,加拿大从国家到省层面,都在拨款,或者倡议当地企业捐助基金鼓励人才进行AI研究。

这些钱拨下来以后怎么用?最直接地方式就是给教授加薪,细节没公布,但与AI相关的教授,差不多直接涨薪3倍。

于是问题也随之而来,因为做AI就能加薪,所以不少传统学科的教授,比如语音学的教授,也想挤进来,也说自己的研究与AI相关,那如何判断、决定谁加薪就成了大问题。

这时候Bengio和Hinton在其中就发挥了作用,他们相当于承担起"判断"和"选拔"人才的角色。

于是Hinton就组织起Vector,Bengio组织起MILA。

而且这两个机构也不虚,可以说把优质的教授都拉了进来。一方面,这些人才基本都在做机器学习;另一方面,这也都是可能会被Google和Facebook挖走的人。所以这两大组织实际上起到了"保护人才"、"留住人才"的作用。

也挺有意思,之前Google和Facebook在很多大学挖人,在美国挖得比较顺利,比如Google挖了一半的斯坦福教授,CMU自动驾驶团队被Uber集体端走之类的,但是在加拿大这边反而动静不大。

虽然也跟美国公立学校的组织制度有关,比如不能直接涨薪3倍之类的,但无论如何,这两大组织在加拿大AI人才保留方面,起到了关键作用。

讲一个我知道的例子吧,Google为某个加拿大博士开出了顶级offer,年薪百万美元,但这个人最后还是留在了加拿大继续科研,所以可以想见加拿大AI研究人才薪资方面的不俗。

具体的话,Hinton和Vector,Bengio和MILA在推进AI研究的方法上,有些不一样。

Hinton的做法,是圈了30多个多伦多科技公司,围绕着这些科研人员,让他们在公司里面做顾问、CTO,只要不荒废科研工作,开放性质地进行AI研究。

所以打个比方,Hinton的做法是正在让多伦多变成一个大的孵化器,我们这次还去看了很多多伦多的公司,整体感觉像是到了一个大卖场,很多项目都很便宜,可以简单列个比较关系吧:

加拿大普通AI项目的估值两大教授学生AI项目的估值硅谷AI公司的估值中国AI公司的估值。

不过一方面是中国公司估值确实贵,另一方面也是因为加拿大环境原因,他们在数据方面跟中国不能比,对于商业的理解,也不一样。

Element AI创始团队成员

Bengio和MILA在蒙特利尔,核心做了一家Element AI的公司,腾讯还参与了投资。

这家公司做什么呢?其实有点跟创新工场AI工程院类似,找一些垂直领域,然后基于AI打造解决方案,他们的团队现在有100多人,全球范围招聘,光融资就募到了很多钱。

虽然加拿大整体市场也不大,数据也不多,但也有一些优势领域,比如社保做得很好,医疗数据做的很好。所以是不是可以有些机会?可能还是有的。

总之这一次在加拿大,最强烈的感觉就是加拿大对于百年难得一遇的机遇的渴望,政府大力推动,给高校设立"讲座教授"之类的基金,花很多钱让顶级教授留在加拿大任职。

然后地方省份,也拿出钱来支持学校、围绕企业和孵化器进行发展。他们也都在考虑,如何全球吸引人才,如何做AI的培训。

所以加拿大整体展现出来的就是围绕AI,打造生态,培养创业环境的态势。

OK,时间关系,这一次先围绕"北美见闻"聊这些话题,下一次我们再围绕"北美如何看中国AI"进行交流。

祝冬安。

大咖来信往期回顾

大咖来信 | 李国杰院士:AI创业光靠算法走不远,警惕命运魔咒

大咖来信 | 姚期智:算法将推动下一波AI浪潮,现有革新将达极限

大咖来信 | 李开复:美国AI见闻录

—完—

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2C2Iu6n
RSS Feed

RSS5

IFTTT

惊了。Scikit-Learn (Sklearn) 中文文档 0.19

刚才在后台看到了某知乎大V @飞龙 发的一个帖子:Scikit-Learn (Sklearn) 中文文档 0.19 - 集智社区

他们还在寻觅相关的译者。

感兴趣的可以来看看,为文档贡献自己的力量!



via 集智 - 知乎专栏 http://ift.tt/2BYzgIl
RSS Feed

RSS7

IFTTT

2017年12月10日星期日

英特尔&丰田联合开源城市驾驶模拟器CARLA

英特尔实验室联合丰田研究院和巴塞罗那计算机视觉中心联合发布 CALRA,用于城市自动驾驶系统的开发、训练和验证的开源模拟器,支持多种传感模式和环境条件的灵活配置,论文中详细评估并比较了三种自动驾驶方法的性能。


模拟器和配套的资源将会发布在官方网站:http://carla.org。


论文:CARLA:An Open Urban Driving Simulator



论文链接:http://ift.tt/2yAzKm4


摘要:本文介绍一款用于自动驾驶研究的开源模拟器:CARLA。CARLA 的开发包括从最基础的直到支持城市自动驾驶系统的开发、训练和验证。除了开源代码和协议,CARLA 还提供了为自动驾驶创建的开源数字资源(包括城市布局、建筑以及车辆),这些资源都是可以免费获取和使用的。这个模拟平台能够支持传感套件和环境条件的灵活配置。我们使用 CARLA 来研究三种自动驾驶方法的性能:传统的模块化流水线,通过模仿学习训练得到的端到端模型,通过强化学习训练得到的端到端模型。这三种方法在难度递增的受控环境中做了评估,并用 CARLA 提供的指标进行性能测试,表明 CARLA 可以用来进行自动驾驶的研究。在这个网址中可以看到补充的视频:https://youtu.be/Hp8Dz-Zek2E。


图 1:四种不同天气下城市 2 中的一条街道(第三人称视角)。从左上顺时针开始:晴天、雨天、雨后、晴朗的黄昏。在补充视频中可以看到模拟器中的录像。


图 2:CARLA 提供的三种不同模式的传感。从左到右依次是:正常的摄像头视觉、真实深度、真实语义分割。深度和语义分割是由支持控制感知作用实验的伪传感器提供的。额外的传感器模型可以通过 API 接入。


我们在四个难度递增的驾驶任务重测评了这三种方法—模块化的流水线(MP)、模仿学习(IL)、以及强化学习(RL),每个测评都分别在两个不同的城市和六种天气条件中进行。需要注意的是,我们在四个任务上对这三种方法的测试使用的是同一个智能体,并没有为某个场景而单独地去微调一个模型。任务被设置为目标导向的导航:智能体被初始化在城市的某个地方,然后它必须到达指定的目的点。在这些实验中,允许智能体忽略速度限制和交通信号灯。我们遵循难度递增的顺序来安排这些任务,如下:


1. 直线:出发地点和目的地在同一条直线上,而且环境中也没有运动的物体。平均行驶距离是:城市 1 中 200m,城市 2 中 100m。

2. 一次转弯:从出发点到目的地需要一次转弯;没有运动的物体。平均行驶距离是:城市 1 中 400m,城市 2 中 170m。

3. 导航:没有与出发点相关的目的地的严格限定,没有运动的物体。距离目标的平均行驶距离是:城市 1 中 770m,城市 2 中 360m。

4. 具有运动障碍物的导航:与上一个的任务一样,但是有运动的障碍物(包括车辆和行人)。


表 1:三种自动驾驶系统在目标导向导航任务中的量化测评。这张表记录了在每一种环境下每个不同的方法成功完成某个任务中的片段所占的百分比,越高越好。被测试的三种方法分别是:模块化流水线(MP)、模仿学习(IL)、以及强化学习(RL)。


表 1 记录了在每一种环境下每个不同的方法成功完成某个任务中的片段所占的百分比。首先是训练条件:城市 1,训练天气集。要注意,测试中和训练过程中使用的起点和目标点是不一样的:只有通用的环境和条件是一样的。其他三种实验条件均设置在具有挑战性的泛化中:之前从未见过的城市 2 以及从未见过的训练天气集。


表 1 中的结果证明了以下结论。总之,即便是在直线行驶的任务中,三种方法都不是完美的,成功率随着任务难度的增加急剧下降。泛化到新的天气要比泛化到新的城市更加容易。模块化流水线法和模拟学习的方法在大多数任务中的性能都平分秋色。强化学习方法的性能赶不上前两者。我们现在更具体讨论一下这四个关键结论(见原文)。


表 2:两次违规行驶之间的平均行驶距离从(km)。数字越大,性能越好。


违规分析:CARLA 支持细粒度的驾驶规则分析。我们现在测试一下这三个系统在最难的任务上的行为:在具有运动障碍物的环境中导航。我们用这三种方法在五种不同类型的两次违规间行驶的平均距离来描述它们的性能:在相反的车道上行驶,在人行道行驶,与其他车辆并道行驶,与行人并道行驶,碰到静态物体。附录中有具体细节。


表 2 记录了在两次违规行驶之间驾驶的平均距离(km)。所有的方法都在训练的城市 1 中表现更好一些。对于所有的实验条件,模仿学习偏离到对向车道的频率是最低的,强化学习的质量是最糟糕的。在偏向人行道的情况中也是类似的模式。令人惊讶的是,强化学习与行人冲突的频率是最低的,也许这可以通过在这种碰撞中得到的巨大的负面回报来解释。然而,强化学习智能体在避免与行驶的车辆以及静态障碍物发生碰撞时不够成功,而模块化流水线方法通常能够在这些测试中表现得最好。


这些结果突出了端到端方法对罕见事件的脆弱性:在训练期间很少遇到急刹车或者急转弯来避免与行人碰撞的情况。尽管可以在训练期间加大这类事件的频率以支持端到端训练方法,但是为了得到在鲁棒性上的重大突破,学习算法和模型架构上的深层进展是很有必要的。


paperweekly链接:http://ift.tt/2yZPlyh

]]> 原文: http://ift.tt/2A8RsxQ
RSS Feed

机器知心

IFTTT

天天写代码,觉得自己特别苦逼?嗯,还有20年AI就来解放你

Root 编译整理

量子位 出品 | 公众号 QbitAI

"小伙子们呐,别想着写代码写到老啊喂。时代在变啦!"

美国能源部橡树岭国家实验室研究委员会苦口婆心地劝现在的攻城狮。

美国能源部橡树岭国家实验室,位于美国田纳西州,其中子加速器曾创世界纪录。该实验室的使命是攻克美国当下面临的最严峻的科学难题,并且开发新技术,为人类创造更加美好的生活,保护人类。

美国能源部橡树岭国家实验室的中子加速器

12月初,他们发表了一篇研究论文,《人类2040年还需要亲自写代码吗?对于编程来说,人机混编的代码意味着什么?》,讨论了21世纪中后期AI在软件行业中发挥的作用。

最后学术界的结论是,他们预测AI将会在2040年就彻底解放攻城狮。

到那时候,机器学习和自然语言处理技术将会pk掉我们人类最顶尖的软件攻城狮。以后就不用小伙子们(嗷,当然也有极少数的小菇凉)天天埋在一堆显示器后面吭哧吭哧写代码了。

报告里指出,编程界现在就在经历一场变革,不过我们大家还在处于变革的早期。AI技术的高速发展会产出大量代码,不断优化后能针对性地解决研究机构的问题或者满足市场的需求。

尽管这么一说,赶脚人类的攻城狮职业很危险,似乎要被AI取代了,但是研究人员乐观地指出,本质上,AI会写代码是在帮助人类提升工作效率,攻城狮的时间和智力资源可以释放出来,解决更复杂的问题。就好像你拥有了一个私人助理,帮你把很多杂事琐碎的事都干了,那你就可以有更多的时间集中注意力,去思考更复杂的问题。

我们想象一下这样的场景。有两个攻城狮坐在一起闲扯淡。

其中一个人突然来了一句,"你说,怎么知道我的咖啡十分钟后温度是多少?"

假设你是第二个攻城狮,你会怎么回答这个问题?

你可能会说,这不就写个代码计算一下温度的事嘛。建一个基于时间为变量的热力系统计算公式,确定一下几个相关的值,代进去就可以推出来最后的结果了(当然只是理论值)。

你把这个算出来的温度告诉第一个人,再由第一个人去根据具体的环境情况,整合上可能存在其他未知或已知的影响因素导致的偏差,最后得出一个更接近真实的答案。

如果说,第二个攻城狮的工作,交给机器来做呢?

那我们人类不就只需要从编程的交互界面去挑出最适合解决问题的模型,微调几个偏差了对吧。这样说来,反而可以把更多的人从机械重复的工作中解放出来,转而去处理更多更复杂的问题。这对我们来说,是件好事诶ヾ(๑╹◡╹)ノ"

不过,目前最大的挑战在于,硬件基础设施和软件的需求之间有一定的距离。研究人员都在期待着有强大的硬件出现,支撑着AI快速产出代码,也能跑起来人机混合编码的程序。

对于一个人类攻城狮来说,他们需要一个更高阶的语言,或合适的自然语言处理界面来选用机器编程的代码(MGC,Machine-generated code)。机器写代码,不像人写代码,需要跨越不同的硬件类型,可能也需要更抽象更高效的语言来进行机器之间的信息沟通。前一段时间Facebook的AI也一度发明过它们自己沟通的语言。

作为攻城狮的你,怎么看这个问题?

最后,附论文链接,有时间建议瞅瞅,提前给自己未来选条好赛道:

http://ift.tt/2jTTECq

—完—

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2yZPAcF
RSS Feed

RSS5

IFTTT

LangChain 彻底重写:从开源副业到独角兽,一次“核心迁移”干到 12.5 亿估值 -InfoQ 每周精要No.899期

「每周精要」 NO. 899 2025/10/25 头条 HEADLINE LangChain 彻底重写:从开源副业到独角兽,一次"核心迁移"干到 12.5 亿估值 精选 SELECTED 1000 行代码手搓 OpenAI gpt-oss 推理引...