2017年11月9日星期四

刚刚获得软银中国2.2亿人民币B轮投资的码隆科技,到底是一家怎样的公司?

撰文 | 高静宜


11 月 10 日,国内专注于深度学习与计算机视觉技术的创业公司码隆科技(下简称码隆)宣布获得来自软银中国资本领投的 B 轮融资,融资金额共计 2.2 亿人民币。此前,码隆科技曾在 2015 年 3 月获得 1200 万天轮投资,于 2016 年 10 月完成 6200 万人民币 A 轮融资。


对于接下来的拓展计划,码隆科技 CEO 黄鼎隆说:「最重要的是节制地招纳 AI 人才,进一步完善团队建设,其次是公司正在拓展包括美国、日本、以及南美洲等海外市场,将把这笔资金用于加快国际化市场的开拓。此外,公司还计划组建自己的数据中心,加大硬件方面的投入。」


值得注意的是,这是软银中国在中国人工智能领域投下的第一家公司。此前,软银中国曾成功投资了国内的阿里巴巴、淘宝网等一系列项目,并从去年开始,着手在全球范围内大规模投资人工智能领域。软银中国主管合伙人宋安澜认为,码隆拥有顶级人才团队及国际化视野,看好和期待接下来公司在国际化布局方面的进展。


这家被软银中国率先锁定的中国人工智能初创公司,在技术和产品方面又有哪些独到之处?为此,机器之能采访了黄鼎隆,对这家公司一探究竟。


深度学习是打开金矿的一把钥匙


2014 年 7 月,黄鼎隆和他的「黄金搭档」码特(Matt Scott)开始创业,并取了各自名字中的一个字,将公司命名为码隆科技。


这并不是二人的首次合作。7 年前,黄鼎隆和码特还是微软同事,联手开发了必应词典,这也是微软在亚洲最成功的互联网产品之一。黄鼎隆负责产品与市场,码特负责研究与开发,当年的分工延续也一直到现在。



码隆科技CTO码特与CEO黄鼎隆


「当时这个产品成功走通了从研究开发、产品市场到销售变现的整个闭环。」黄鼎隆笑着说道,「所以那时我们就有过这种内部创新的经历,只是工资不用我们自己发而已。」


创业的想法是从必应词典的研发开始。当时流行的词库还只拥有百万量级的词汇量,而必应词库就率先实现了千万量级的词汇量,这背后,团队在挖掘和抓取互联网上的中英词汇文本信息方面付出了大量精力。「我们发现,很多互联网信息有很大价值,图像就是一个未被开采的巨大金矿。我博士研究方向是人机交互,也非常关注基于视觉的项目。可惜那时候,技术还达不到现在这样的水平。」黄鼎隆说道。


直到 2014 年,深度学习火花溅起,解决图像问题的技术手段愈发成熟。黄鼎隆意识到,之前所留意到的图像金矿开始有机会被挖掘出来了,深度学习技术正是打开这个宝库的钥匙。「这是一个很好的方向,我们一拍即合,决定义无返顾地去创业。」黄鼎隆说。


在基于深度学习与计算机视觉技术进行探索的道路上,码隆科技选择聚焦在商品识别领域,并将这一定位从成立贯穿至今。而专注于细分方向并建立足够的护城河,也是吸引软银中国领投 B 轮融资的重要原因之一。


开发弱监督式学习方法,跨越真实场景中的数据难题


商品识别,也就是让计算机像各个行业的专家一样识别出各种商品,比如像零售业专家一样认识各种品类的快消品,像时装设计师一样根据图片掌握、分析各种时尚信息。3 年来,公司把商品识别深入覆盖到纺织、时尚、图像版权、家具、医药、营销等多个垂直行业。




需要一提的是,识别商品与识别物体不同,不仅要知道识别的对象是什么,还要从不同的维度理解识别的对象,例如商品的各种属性,包括风格、颜色、材质、面料等。除此之外,不同应用场景下的商品也有具体不同的特性。


「我们遇到了两大技术难点,」黄鼎隆表示。


团队在研发过程中发现,有许多商品是柔性的,会随着外界影响发生形变而且没有固定的特征。很明显,相比五官特征有规律的人脸,衣服形态特征差异巨大,比如被穿在身上、平铺在桌面以及揉成一团的时候,训练所需的特征都不一样,给识别带来的挑战极大。为了提高识别力,团队采用深度学习技术,训练计算机自己学习如何进行识别。


但与此同时,第二个问题也随之而来——用于模型训练的商品数据往往是「不干净、不均衡」的。


众所周知,对有监督学习来说,标准数据至关重要。但无论是从互联网上抓取到还是由企业提供的商品数据标签,可能并不准确。另外,一些商品数据较为稀缺,会产生数据不平衡的问题。为改善有监督学习效果,码隆科技开发了一套弱监督式学习方法,能够有效利用含有「噪音」——也就是不规整的数据,并且基于此训练出一个能够与人类媲美的 AI 模型。




为了验证这个方法,码隆科技在今年 7 月参加了 CVPR (IEEE Conference on Computer Vision and Pattern Recognition,IEEE国际计算机视觉与模式识别会议)的 WebVision 竞赛。WebVision 被誉为接棒 ImageNet 的图像识别竞赛,主要区别在于其数据集直接从互联网上抓取,没有经过人工标注,含有大量的噪音,而且不同类别的数据量十分不平衡。这种更贴近于真实应用场景的数据环境,使得比赛的挑战难度也更大。码隆科技利用自主研发的弱监督式学习夺得冠军,并且大幅度领先第二名。


「在 ImageNet 这种理想化数据集上的提升已经基本接近于极限值,近几年内也没有出现太过创新的算法,更多是把比拼放在在算力方面。我想这也是 WebVision 提出不干净、不平衡数据的原因,需要有新的算法出现。」黄鼎隆补充道,「无监督学习是一个美好的未来,但在短期内全世界范围还没有看到一个可行的方案。所以在这种情况下,弱监督式学习是最佳的落地方案。」


聚焦三大领域,积极拓展应用平台


不过,任何产品的商业落地都是一个系统工程。技术之外,找到行业中的真实需求,然后定义好这个问题本身才是技术落地的关键。




码隆科技的办法是搭建一个普适性的自助式人工智能应用平台 ProductAI,让不同行业的客户用更简单高效的方式使用其技术方案。另一方面,码隆优先选择人工智能、计算机视觉技术应用价值较大的领域,也就是所谓的头部行业,尝试与这些领域内的客户深度结合,挖掘他们的真实需求,最后提供一个端到端的解决方案。


这是黄鼎隆口中的「一横一纵」策略,横向基于 ProductAI 平台不断向外拓展,纵向则将产品与各垂直行业需求紧密结合,为企业提供端到端的解决方案从而这些帮助行业上百倍地提升效率。


当然,在挖掘行业需求的过程中不可避免地会出现一些「伪需求」。曾有一个公司想用 AI 技术来解决穿衣搭配问题,让机器从那些时尚博主、明星的穿搭经验中摸索出规律。码隆团队琢磨之后,明确这种应用算不上真正的「刚需」,提出以图搜图的方案。因为搭配效果是落在图片上,明星街拍照片、社交媒体上点赞较多的穿搭图片已经非常直观,只需要用以图搜图的方式找到某一件单品都在什么图片中出现过,就可以帮助用户解决搭配的问题。相较于文字这种需要用户消化理解的形式,图片反而更加简洁清晰,也就是所谓的「一图胜千言」。



码隆科技与穿衣助手合作,让消费者可以通过搜索服饰照片,找到对应的服装搭配推荐


根据码隆的说法,自 2016 年 10 月发布至今,ProductAI 平台上的企业客户累积超过 200 个,并与中国纺织信息中心、京东商城、唯品会、卷皮、可口可乐、优料宝、家图网等合作,商品识别覆盖超过 20 多个垂直领域,能够在各领域的图像中找出图中所包含的商品并给出多达 20000 个以上的标签。在服装属性识别方面,ProductAI 的标准准确率甚至超越人类相关专家的水准。


目前,公司核心业务聚焦在服装纺织、家居家装以及新零售三个领域。其中,服装纺织是码隆科技 2014 年创业之初最先切入的领域,已经开始积极开拓海外市场。


「眼下人工智能的发展还处于早期阶段,真正的大机会其实还没有出现。我们会一直专注在商品识别方向,这是一个很大的空间。」黄鼎隆说。


]]> 原文: http://ift.tt/2mc9EE8
RSS Feed

机器知心

IFTTT

根据脸型挑镜框?请立刻抛弃选款攻略用iPhone X!

编译 | 高静宜

来源 | The Verge


iPhone X 正式出售还没几天,人们就已经开始挖掘手机上面部识别技术的潜力,还开发出了许多可以应用于日常生活中的好玩应用,比如例如可以模拟面部表情的 Animoji 功能。


除此之外,面部识别技术也可以发挥出一些实用价值。这其中,一款来自 Warby Parker 的眼镜推荐 APP 就吸引了不少用户的注意。



这家眼镜公司巧妙地利用 iPhone X 的摄像头扫描用户的面部,然后根据这些数据推荐给用户适合其脸型的眼镜款式。这项功能是 Warby Parker 数字体验计划的一环,他们希望用户能够通过虚拟试戴,找到心仪的产品。




无疑,这个想法非常有趣,而面部识别环节也为后续更多功能的实现打下了基础。未来随着 iOS 系统的更新,想必我们还会发现更多好玩的应用。


]]> 原文: http://ift.tt/2zKhwCN
RSS Feed

机器知心

IFTTT

良心GitHub项目:各种机器学习任务的顶级结果(论文)汇总

今日,机器之心小编在 Github 上发现了一个良心项目:RedditSota 统计了各种机器学习任务的最顶级研究成果(论文),方便大家索引查阅。机器之心对此项目做了介绍。


项目地址:http://ift.tt/2hlnx18


该 GitHub 库提供了所有机器学习问题的当前最优结果,并尽最大努力保证该库是最新的。如果你发现某个问题的当前最优结果已过时或丢失,请作为问题提出来(附带:论文名称、数据集、指标、源代码、年份),我们会立即更正。


这是为所有类型的机器学习问题寻找当前最优结果的一次尝试。我们都无法独自完成,因此希望每一位读者参与进来。如果你发现了一个数据集的当前最优结果,请提交并更新该 GitHub 项目。


监督学习

NLP

  • 1、语言建模

以下展示了语言建模方面当前顶尖的研究成果及它们在不同数据集上的性能。


论文:DYNAMIC EVALUATION OF NEURAL SEQUENCE MODELS

论文地址:http://ift.tt/2zrfabk

实现地址:http://ift.tt/2zLuhwX


论文:Regularizing and Optimizing LSTM Language Models

论文地址:http://ift.tt/2ulMdMg

实现地址:http://ift.tt/2viLzLg


论文:FRATERNAL DROPOUT

论文地址:http://ift.tt/2zmcER5

实现地址:http://ift.tt/2zLuj83


论文:Factorization tricks for LSTM networks

论文地址:http://ift.tt/2zsU4JT

实现地址:http://ift.tt/2zLujF5


在语言建模(Language Modelling)的四个顶尖研究成果中,我们看到 Yoshua Bengio 等人的研究 FRATERNAL DROPOUT 在 PTB 和 WikiText-2 数据集上都实现了当前最好的结果。在该篇论文中,Bengio 等人提出了一项叫做 fraternal dropout 的技术,他们首先用不同的 dropout mask 对两个一样的 RNN(参数共享)进行训练,并最小化它们 (pre-softmax) 预测的差异。这样正则项会促进 RNN 的表征对 dropout mask 具有不变性。Bengio 等人证明了他们的正则项上界为线性期望的 droupout 目标,即可以解决 droupout 因训练和推断阶段上出现的差异而导致的 Gap。

此外,Ben Krause 等人提出使用动态评估来提升神经序列模型的性能。Salesforce 的 Stephen Merity 等人提交的论文 LSTM 语言模型中的正则化和最优化从词层面的语言建模和调查基于 LSTM 模型中的正则化和最优化等具体问题出发研究更高效的语言建模方法。英伟达的 Oleksii Kuchaiev 等人提出了两个带映射的 LSTM 修正单元(LSTMP),并借此减少参数的数量和提升训练的速度。

  • 2、机器翻译


论文:Attention Is All You Need

论文地址:http://ift.tt/2rUnEDo

实现地址:http://ift.tt/2zMaFbY


论文:NON-AUTOREGRESSIVE NEURAL MACHINE TRANSLATION

论文地址:http://ift.tt/2znsttc

实现地址:未公布


在机器翻译上,我们比较熟悉的就是谷歌大脑 Ashish Vaswani 等人关于注意力机制的研究,该模型在 WMT 2014 英法和英德数据集上都有十分不错的表现。该研究表明在编码器-解码器配置中,显性序列显性转导模型(dominant sequence transduction model)基于复杂的 RNN 或 CNN。表现最佳的模型也需通过注意力机制(attention mechanism)连接编码器和解码器。因此谷歌在该篇论文中提出了一种新型的简单网络架构——Transformer,它完全基于注意力机制,彻底放弃了循环和卷积。上图两项机器翻译任务的实验也表明这些模型的翻译质量不仅十分优秀,同时它们更能并行处理,因此这种模型所需的训练时间也能大大减少。这篇论文表明 Transformer 在其他任务上也泛化很好,能成功应用到有大量训练数据和有限训练数据的英语组别分析任务上。


除了这篇论文,Salesforce 和香港大学等研究者提出了能避免自回归(autoregressive)属性和并行产生输出的模型,这种模型在推断时能减少数个量级的延迟。该论文通过三个层面的训练策略展示了在 IWSLT 2016 英语-德语数据集上产生的大量性能提升,并且在 WMT2016 英语-罗马尼亚语上获得了当前顶尖的效果。

  • 3、文本分类


论文:Learning Structured Text Representations

论文地址:http://ift.tt/2yxJz8r

实现地址:未公布


论文:Attentive Convolution

论文地址:http://ift.tt/2zsU5NX

实现地址:未公布


爱丁堡大学的 Yang Liu 等人提出了学习结构化的文本表征,在这篇论文中,他们关注于在没有语篇解析或额外的标注资源下从数据中学习结构化的文本表征。虽然目前暂时还没有相应的实现代码,不过他们在 Yelp 数据集上准确度能达到 68.6。而另一篇带注意力的卷积提出了了一种 AttentiveConvNet,它通过卷积操作扩展了文本处理的视野。

  • 4、自然语言推理


论文:DiSAN: Directional Self-Attention Network for RNN/CNN-free Language Understanding

论文地址:http://ift.tt/2zsU6kZ

实现地址:未公布


悉尼科技大学和华盛顿大学的研究者提出了 DiSAN,即一种为 RNN/CNN-free 语言理解的定向自注意力网络。该研究提出了一种新颖的注意力机制,即输入序列中每个元素之间的注意力是定向和多维的,这是一种对应特征相连接的注意力。该研究在斯坦福自然语言推理(SNLI)数据集上获得了 51.72% 的准确度。

  • 5、问答


论文:Interactive AoA Reader+ (ensemble)

数据集地址:http://ift.tt/2cwaHbg

实现地址:未公布


斯坦福问答数据集(SQuAD)是一个新型阅读理解数据集,该数据集中的问答是基于维基百科并由众包的方式完成的。小编并没有找到该论文,如下 GitHub 地址给出的是该数据集和评估该数据集的模型。


  • 6、命名实体识别


论文:Named Entity Recognition in Twitter using Images and Text

论文地址:http://ift.tt/2zM6RHV

实现地址:未公布


波恩大学 Diego Esteves 等研究者在推特上使用图像和文本进行命名实体识别,在该论文中,他们提出了一种新颖的多层级架构,该架构并不依赖于任何具体语言学的资源或解码规则。他们的新型模型在 Ritter 数据集上 F-measure 实现了 0.59 的优秀表现。

计算机视觉

  • 1、分类


论文:Dynamic Routing Between Capsules

论文地址:http://ift.tt/2iCnpKN

实现地址:http://ift.tt/2zLulNd


论文:High-Performance Neural Networks for Visual Object Classification

论文地址:http://ift.tt/2zsU8cB

实现地址:未公布


在计算机视觉领域中,最近比较流行的论文就是 Geoffrey Hinton 等人提出的 Capsule 动态路由方法,机器之心也曾详细地解析了该论文与实现。在论文中,Geoffrey Hinton 介绍 Capsule 为:「Capsule 是一组神经元,其输入输出向量表示特定实体类型的实例化参数(即特定物体、概念实体等出现的概率与某些属性)。我们使用输入输出向量的长度表征实体存在的概率,向量的方向表示实例化参数(即实体的某些图形属性)。同一层级的 capsule 通过变换矩阵对更高级别的 capsule 的实例化参数进行预测。当多个预测一致时(本论文使用动态路由使预测一致),更高级别的 capsule 将变得活跃。」

此外,Jurgen Schmidhuber 等人提出了一种视觉目标分类的高性能神经网络,在该论文中他们提出了一种卷积神经网络变体的快速全可参数化的 GPU 实现。虽然该论文是在 2011 年提出的,不过它在 NORB 数据集上还是有非常不错的效果。

语音

  • 1、ASR


论文:THE MICROSOFT 2017 CONVERSATIONAL SPEECH RECOGNITION SYSTEM

论文地址:http://ift.tt/2zLumRh

实现地址:未公布


本文介绍了微软对话语音识别系统的 2017 版本。它在原有的模型架构设置中添加了一个 CNN-BLSTM 声学模型,并且在系统结合之后还添加了一个混合网络再打分的步骤。结果这一系统在数据集 Switchboard Hub5'00 上取得了 5.1% 的词错率。

半监督学习

计算机视觉


论文:DISTRIBUTIONAL SMOOTHING WITH VIRTUAL ADVERSARIAL TRAINING

论文地址:http://ift.tt/2zKXQhU

实现地址:http://ift.tt/1h79t5O


论文:Virtual Adversarial Training: a Regularization Method for Supervised and Semi-supervised Learning

论文地址:http://ift.tt/2zLunoj

实现地址:未公布


第一篇论文中,日本京都大学提出了局部分布式平滑度(LDS),一个关于统计模型平滑度的新理念。它可被用作正则化从而提升模型分布的平滑度。该方法不仅在 MNIST 数据集上解决有监督和半监督学习任务时表现优异,而且在 SVHN 和 NORB 数据上,Test Error 分别取得了 24.63 和 9.88 的分值。以上证明了该方法在半监督学习任务上的表现明显优于当前最佳结果。

第二篇论文提出了一种基于虚拟对抗损失的新正则化方法:输出分布的局部平滑度的新测量手段。由于平滑度模型的指示是虚拟对抗的,所以这一方法又被称为虚拟对抗训练(VAT)。VAT 的计算成本相对较低。本文实验在多个基准数据集上把 VAT 应用到监督和半监督学习,并在 MNIST 数据上取得了 Test Error 1.27 的优异表现。

无监督学习

计算机视觉

  • 1、生成模型


论文:PROGRESSIVE GROWING OF GANS FOR IMPROVED QUALITY, STABILITY, AND VARIATION

论文地址:http://ift.tt/2hTVlQ2

实现地址:http://ift.tt/2yaKdbK


英伟达在本文中描述了一种新的 GAN 训练方法,其核心思想是同时逐渐地增加生成器与鉴别器的能力:从低分辨率开始,添加持续建模精细细节的新层作为训练过程。这不仅加速了训练,而且更加稳定,获得质量超出预想的图像。本文同时提出了一种增加生成图像变体的简便方法,并在 CIFAR10 上取得了 8.80 的得分。另外的一个额外贡献是创建 CELEBA 数据集的更高质量版本。


]]> 原文: http://ift.tt/2zKjpzt
RSS Feed

机器知心

IFTTT

不到一年英伟达股价又翻番了,CFO说:感谢中国、感谢AI

夏乙 问耕 发自 凹非寺

量子位 出品 | 公众号 QbitAI

2016年1月初,英伟达股价不到30美元。

2017年1月初,英伟达股价刚过100美元。

今年还剩两个月没过完,英伟达的股价已经超过200美元。

而且英伟达股价今早盘后又上涨超过3%。原因很直接,英伟达发布了第三季度的财报,业绩表现超过此前分析师预期。

财报发布后的电话会议上,英伟达CFO进一步讲述了业绩表现,量子位听来听去,总结起来就是一句话:感谢中国、感谢AI。

另外,英伟达CEO黄仁勋在电话会议上,再次强调了对无人车的坚定看好。

黄仁勋预计明年自动驾驶的模拟和开发系统会成熟,2019年自动驾驶的出租车会出现,2020年完全的自动驾驶汽车会上路行驶。

对于英特尔从AMD挖来高手开发GPU一事,黄仁勋不以为意。

26.4亿美元

先来看看英伟达刚交出一份怎样的成绩单。

今年第三季度,英伟达营收26.4亿美元(约175亿人民币),同比增长32%;净利润8.3亿美元(约55亿人民币),同比增长55%。

有两个维度可以进一步详解英伟达的营收。第一个是产品维度,GPU业务第三季度贡献营收22.1亿美元,同比增长31%;Tegra处理器业务贡献营收4.2亿美元,同比增长74%。

基于Pascal架构的GeForce GTX系列产品,驱动着GPU业务的增长。而Tegra业务的增长仍然是受益于任天堂Switch游戏掌机的畅销。

如果从行业维度看,游戏业务贡献营收15.6亿美元,同比增长25%;专业可视化业务贡献营收2.4亿美元,同比增长15%;数据中心业务贡献营收5亿美元,同比增长109%;汽车业务贡献营收1.4亿美元,同比增长13%。

数据中心仍然是增长最快的业务,毕竟深度学习的训练和加速都需要GPU的支持,DGX等产品还是处于供不应求的状况。汽车业务的主打产品还是DRIVE PX平台。

截至目前,英伟达持有的现金、现金等价物、短期证券总价值已达63.2亿美元。第三季度英伟达的自由现金流为10.9亿美元,上一季度是6.5亿美元。

中国动力

上述种种业务中,很多都与中国公司有关。这也难怪英伟达CFO会重点提到中国。这里我们概要的摘录下英伟达第三季度都干了什么。

数据中心业务

随着越来越多的公司将人工智能视为下一步战略核心,对于英伟达GPU的需求也越来越来强烈,也就是英伟达GPU在数据中心服务器上的应用。

用老黄的话说,就是"每一家主要的互联网公司、云服务提供商、计算机制造商都在拥抱我们的Volta系列GPU,我们的新TensorRT推断加速平台为我们带来了超大规模数据中心的增长。"

具体来说:

  • 在北京、慕尼黑、特拉维夫、台北和华盛顿召开GTC大会。
  • 今年新推出的Volta GPU,阿里巴巴、百度、腾讯,都将用它来速面向企业和消费者的AI应用,紧随亚马逊、Facebook、Google和微软之后。
  • 华为、浪潮、联想都使用英伟达Volta HGX架构为数据中心构建AI系统;戴尔EMC、惠普、IBM和Supermicro推出基于Tesla V100 GPU的服务器。
  • 英伟达最新推出的TensorRT 3人工智能推理加速平台,也带来了一大批数据中心客户。英伟达CFO在电话会议上说,有1200多家公司在使用英伟达推理平台,包括亚马逊、微软、Facebook、谷歌、百度、阿里巴巴、京东、讯飞、海康威视和腾讯。

游戏业务

  • 发布GeForce GTX 1070 Ti GPU。
  • 将GameWorks技术引入《最终幻想XV》等游戏新作。

汽车业务

  • 发布DRIVE PX Pegasus,计算能力强大AI电脑,意在帮助构建一个没有司机、没有方向盘、没有踏板、没有后视镜的无人出租车。
  • DRIVE PX Pegasus迄今它已被超过200家硬件公司和汽车制造商采用,120家初创公司正在使用这一平台。

"我们正在制造的处理器可谓世界上最难的东西。必须放手一搏",黄仁勋表示未来所有的东西都将实现自主化,"汽车、卡车、航天飞机、送货车。还会有机器人在仓库里走来走去,或者给你送披萨"。

黄仁勋预计明年开始,汽车业务的收入会有更快的增长。

正如开头我们提到的,黄仁勋预计2019年,机器人出租车将飞速发展;2020-2021年底,第一辆全自动的L4级自动驾驶汽车上路。

自主机器/AI边缘计算

  • 成为阿里巴巴、华为的合作伙伴使用Metropolis打造AI智慧城市
  • 宣布与京东X实验室合作,使用Jetson创建自动化机器,将AI引入物流行业。

One More Thing

这一季度,英伟达的游戏业务也出现了大幅增长。量子位在上一季度提到过,推动这项业务增长的一个重要推手,是比特币挖矿。

当时,华尔街普遍认为比特币带来的需求无法持续,不过,老黄却认定这个趋势不会停止。

截至目前,老黄是对的。不信看图。

想要查看英伟达的业绩详情,可以在量子位微信公众号(QbitAI)后台回复:"NQ3",我们会发给你美国证监会(SEC)的相关地址。

— 完 —

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2zw6sbi
RSS Feed

RSS5

IFTTT

不到一年英伟达股价又翻番了,CFO说:感谢中国、感谢AI

夏乙 问耕 发自 凹非寺

量子位 出品 | 公众号 QbitAI

2016年1月初,英伟达股价不到30美元。

2017年1月初,英伟达股价刚过100美元。

今年还剩两个月没过完,英伟达的股价已经超过200美元。

而且英伟达股价今早盘后又上涨超过3%。原因很直接,英伟达发布了第三季度的财报,业绩表现超过此前分析师预期。

财报发布后的电话会议上,英伟达CFO进一步讲述了业绩表现,量子位听来听去,总结起来就是一句话:感谢中国、感谢AI。

另外,英伟达CEO黄仁勋在电话会议上,再次强调了对无人车的坚定看好。

黄仁勋预计明年自动驾驶的模拟和开发系统会成熟,2019年自动驾驶的出租车会出现,2020年完全的自动驾驶汽车会上路行驶。

对于英特尔从AMD挖来高手开发GPU一事,黄仁勋不以为意。

26.4亿美元

先来看看英伟达刚交出一份怎样的成绩单。

今年第三季度,英伟达营收26.4亿美元(约175亿人民币),同比增长32%;净利润8.3亿美元(约55亿人民币),同比增长55%。

有两个维度可以进一步详解英伟达的营收。第一个是产品维度,GPU业务第三季度贡献营收22.1亿美元,同比增长31%;Tegra处理器业务贡献营收4.2亿美元,同比增长74%。

基于Pascal架构的GeForce GTX系列产品,驱动着GPU业务的增长。而Tegra业务的增长仍然是受益于任天堂Switch游戏掌机的畅销。

如果从行业维度看,游戏业务贡献营收15.6亿美元,同比增长25%;专业可视化业务贡献营收2.4亿美元,同比增长15%;数据中心业务贡献营收5亿美元,同比增长109%;汽车业务贡献营收1.4亿美元,同比增长13%。

数据中心仍然是增长最快的业务,毕竟深度学习的训练和加速都需要GPU的支持,DGX等产品还是处于供不应求的状况。汽车业务的主打产品还是DRIVE PX平台。

截至目前,英伟达持有的现金、现金等价物、短期证券总价值已达63.2亿美元。第三季度英伟达的自由现金流为10.9亿美元,上一季度是6.5亿美元。

中国动力

上述种种业务中,很多都与中国公司有关。这也难怪英伟达CFO会重点提到中国。这里我们概要的摘录下英伟达第三季度都干了什么。

数据中心业务

随着越来越多的公司将人工智能视为下一步战略核心,对于英伟达GPU的需求也越来越来强烈,也就是英伟达GPU在数据中心服务器上的应用。

用老黄的话说,就是"每一家主要的互联网公司、云服务提供商、计算机制造商都在拥抱我们的Volta系列GPU,我们的新TensorRT推断加速平台为我们带来了超大规模数据中心的增长。"

具体来说:

  • 在北京、慕尼黑、特拉维夫、台北和华盛顿召开GTC大会。
  • 今年新推出的Volta GPU,阿里巴巴、百度、腾讯,都将用它来速面向企业和消费者的AI应用,紧随亚马逊、Facebook、Google和微软之后。
  • 华为、浪潮、联想都使用英伟达Volta HGX架构为数据中心构建AI系统;戴尔EMC、惠普、IBM和Supermicro推出基于Tesla V100 GPU的服务器。
  • 英伟达最新推出的TensorRT 3人工智能推理加速平台,也带来了一大批数据中心客户。英伟达CFO在电话会议上说,有1200多家公司在使用英伟达推理平台,包括亚马逊、微软、Facebook、谷歌、百度、阿里巴巴、京东、讯飞、海康威视和腾讯。

游戏业务

  • 发布GeForce GTX 1070 Ti GPU。
  • 将GameWorks技术引入《最终幻想XV》等游戏新作。

汽车业务

  • 发布DRIVE PX Pegasus,计算能力强大AI电脑,意在帮助构建一个没有司机、没有方向盘、没有踏板、没有后视镜的无人出租车。
  • DRIVE PX Pegasus迄今它已被超过200家硬件公司和汽车制造商采用,120家初创公司正在使用这一平台。

"我们正在制造的处理器可谓世界上最难的东西。必须放手一搏",黄仁勋表示未来所有的东西都将实现自主化,"汽车、卡车、航天飞机、送货车。还会有机器人在仓库里走来走去,或者给你送披萨"。

黄仁勋预计明年开始,汽车业务的收入会有更快的增长。

正如开头我们提到的,黄仁勋预计2019年,机器人出租车将飞速发展;2020-2021年底,第一辆全自动的L4级自动驾驶汽车上路。

自主机器/AI边缘计算

  • 成为阿里巴巴、华为的合作伙伴使用Metropolis打造AI智慧城市
  • 宣布与京东X实验室合作,使用Jetson创建自动化机器,将AI引入物流行业。

One More Thing

这一季度,英伟达的游戏业务也出现了大幅增长。量子位在上一季度提到过,推动这项业务增长的一个重要推手,是比特币挖矿。

当时,华尔街普遍认为比特币带来的需求无法持续,不过,老黄却认定这个趋势不会停止。

截至目前,老黄是对的。不信看图。

想要查看英伟达的业绩详情,可以在量子位微信公众号(QbitAI)后台回复:"NQ3",我们会发给你美国证监会(SEC)的相关地址。

— 完 —

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2zw6sbi
RSS Feed

RSS5

IFTTT

M2 模型杀回 Coding 和 Agent 领域,MiniMax 想要「普惠智能」-InfoQ每周精要No.900

「每周精要」 NO. 900 2025/11/01 头条 HEADLINE M2 模型杀回 Coding 和 Agent 领域,MiniMax 想要「普惠智能」 精选 SELECTED a16z 将 3000 万开发者标价 3 万亿 网友:几个初创公司 + 大模型就...