2017年11月2日星期四

追一科技完成B轮2060万美元融资,创新工场领投

11 月 2 日,机器之心独家获悉,专注深度服务企业的 AI 公司追一科技已经完成 2060 万美元规模 B 轮融资。本轮投资由创新工场领投,GGV 纪源资本及追一科技原始股东晨兴资本、高榕资本跟投。在此之前,2016 年 1 月,追一科技获得晨兴资本百万美金天使投资,2016 年 9 月,再获得高榕资本、晨兴资本数百万美金 A 轮投资。

作为 B 轮投资领投方,创新工场看重追一科技对深度学习与 NLP 的结合,以及产品研发迭代、客户开发能力,另一方面,李开复认为,「(追一科技)技术优势够清晰,赛道可拓展机会也足够大。」


追一科技是一家用深度学习和自然语言处理技术帮助企业搭建智能交互解决方案的创业公司。在滴滴、携程、招商银行信用卡、OFO、小米、万达集团、长江证券、阳光保险等公司的背后,都有追一科技的 YiBot 智能服务系统,用来响应人机协同、大数据分析、个性化服务等多个领域的 AI 应用需求。


在追一科技创始人兼 CEO 吴悦看来,B 轮融资标志着,追一科技会进入一个更有竞争力的发展阶段,公司会在技术研发、产品迭代和人才招募方面增加投入。


在创办追一科技之前,吴悦是腾讯基础架构的几个创始员工之一,他不仅和同事搭建了腾讯存储的基础架构体系,并于2012 年负责 Soso 网页搜索的架构体系,Soso 业务卖掉之后,吴悦留任腾讯 TEG 事业群搜索部门负责人,业务涵盖微信、QQ、应用宝、腾讯视频、腾讯音乐等应用的搜索,并主持开发了天天快报的核心算法推荐引擎。


吴悦在算法方面的深厚积累,以及高管团队在腾讯近 10 年的技术与产品经验,兼具算法、工程、商业基因,同样是晨兴资本合伙人程宇、GGV 纪源资本管理合伙人符绩勋看好追一科技的重要原因。「将 NLP 与人工智能技术应用于客服场景时,追一科技在算法表现之外格外注重产品的体验和对场景的适应。同时,在销售市场并非只专注互联网公司,更是在金融领域深耕,这些都是我们看好追一的理由。」吴陈尧说。


从投资人的关注点也不难看出,人工智能公司融资水涨船高,主要竞争焦点就是谁能真正深入垂直产业并创造足够的收益、抢占足够大的市场。除了充分的资金、前沿技术敏锐度,更需要的是公司拥有技术产品化的能力,深度理解不同行业需求把技术落到应用场景中。


]]> 原文: http://ift.tt/2iTkrlu
RSS Feed

机器知心

IFTTT

离散优化代替反向传播:Pedro Domingos提出深度学习新方向

在改革深度学习、抛弃反向传播的道路上我们不仅看到了 Geoffrey Hinton 的努力。近日,《终极算法》一书作者,华盛顿大学计算机科学教授 Pedro Domingos 也提出了自己的方法——离散优化。


神经分类的原始方法是学习单层模型,比如感知机(Rosenblatt, 1958)。但是,将这些方法扩展至多层比较困难,因为硬阈值单元(hard-threshold unit)无法通过梯度下降进行训练,这类单元在几乎所有情况下导数都为 0,且在原点处非连续。因此,研究社区转向带有软激活函数(如 Sigmoid、ReLU)的多层网络,这样梯度可以通过反向传播进行高效计算(Rumelhart et al., 1986)。


该方法获得了巨大成功,使研究者使用数百层来训练网络,学得的模型在大量任务上取得非常高的准确率,效果超越之前的所有方法。但是,随着网络变得更深、更宽,出现了一种趋势:使用硬阈值激活函数进行量化,实现二元或低精度推断,可以大幅降低现代深层网络的能耗和计算时间。除量化以外,硬阈值单元的输出规模独立(或者不敏感)于输入规模,这可以缓解梯度消失和爆炸问题,帮助避免使用反向传播进行低精度训练时出现的一些反常现象(Li et al., 2017)。避免这些问题对开发可用于更复杂任务的大型深层网络系统至关重要。


出于以上原因,我们研究使用硬阈值单元学习深层神经网络的高效技术。我们观察到硬阈值单元输出离散值,这表明组合优化(combinatorial optimization)可能提供训练这些网络的有效方法,因此本论文提出了一种学习深层硬阈值网络的框架。通过为每个隐藏层激活函数指定离散目标集,该网络可分解成多个独立的感知机,每个感知机可以根据输入和目标轻松进行训练。学习深层硬阈值网络的难点在于设置目标,使每个感知机(包括输出单元)要解决的问题是线性可分的,从而达到目标。我们证明使用我们的混合凸组合优化框架可以学得这样的网络。


基于这一框架,随后我们开发了递归算法,一个可行的目标传播(FTPROP),用来学习深度硬阈值网络。由于这是一个离散优化问题,我们开发了启发法以设置基于每层损失函数的目标。FTPROP 的小批量处理版本可用于解释和证明经常使用的直通的评估器(straight-through estimator/Hinton, 2012; Bengio et al., 2013),现在这可被视为带有每层损失函数和目标启发法的一个特定选择的 FTPROP 实例。最后,我们开发了一个全新的每层损失函数,它能提升深度硬阈值网络的学习能力。我们实际展示了我们的算法在 CIFAR10 的直通评估器为两个卷积网路所带来的提升,以及在 ImageNet 上为带有多个硬阈值激活函数类型的 AlexNet 和 ResNet-18 所带来的提升。


图 1:在设置了一个深层硬阈值网络的隐藏层目标 T1 之后,该网络分解成独立的感知机,进而可通过标准方法被学习。


可行的目标传播


前面部分的开放性问题是如何设置隐藏层的优化目标。一般来说,对整个网络一次性生成优秀的、可行的(feasible)优化目标是十分困难的。相反,在一个层级上单次只提供一个优化目标却十分简单。在反向传播中,因为神经网络最后一层的优化目标是给定的,所以算法会从输出层开始,然后令误差沿着反向传播,这种反向传播就成功地为前面层级设定了优化目标。此外,因为获取优化的先验知识是非常困难的,那么如果某层级的目标对于一个给定的网络架构是可行的,我们就可以有一个简单的替代方案。该方案为层级 d 设置一个优化目标,然后优化前面层级已有的权重(即 j<=d 的层级权重)以检查该目标是不是可行。因为在优化层级时的权重和设置其上游目标(即其输入)时的目标相同,我们称之为诱导可行性(induce feasibility),即一种设置目标值的自然方法,它会选择减少层级损失 Ld 的优化目标。


然而,因为优化目标是离散的,目标空间就显得十分巨大且不平滑,它也不能保证在实际执行优化时能同时降低损失。因此启发式方法(heuristics)是很有必要的,我们会在本论文的下一部分详细解释这种启发式方法。d 层优化目标的可行性能通过递归地更新层级 d 的权重而确定,并根据 d-1 层的目标给出 d 层的优化目标。


这一递归过程会继续进行,直到传播到输入层,而其中的可行性(即线性可分型)能通过给定优化目标和数据集输入后优化层级的权重而简单地确定。层级 d 的优化目标能够基于从递归和层级 d-1 的输出而获得的信息增益中得到更新。我们称这种递归算法为可行的目标传播(FTPROP)。该算法的伪代码已经展示在算法 1 中。FTPROP 是一种目标传播 (LeCun, 1986; 1987; Lee et al., 2015),它使用离散型替代连续型而优化设置的目标。FTPROP 同样和 RDIS (Friesen & Domingos, 2015) 高度相关,该优化方法是基于 SAT 求解器的强大非凸优化算法,它会递归地选择和设置变量的自己以分解潜在的问题为简单的子问题。但 RDIS 仅适用于连续问题,但 RDIS 的思想可以通过和积定理(sum-product theorem/Friesen & Domingos, 2016)泛化到离散变量优化中。



当然,现代深层网络在给定数据集上不总是具备可行的目标设置。例如,卷积层的权重矩阵上有大量结构,这使得层输入对目标是线性可分的概率降低。此外,保证可行性通常会使模型与训练数据产生过拟合,降低泛化性能。因此,我们应该放松可行性方面的要求。


此外,使用小批量处理而不是全批处理训练有很多好处,包括改善泛化差距(参见 LeCun et al. 2012 或 Keskar et al. 2016),减少内存使用,利用数据增强的能力,以及为其设计的工具(比如 GPU)的流行。幸运的是,把 FTPROP 转化为一个小批量算法并放宽可行性需求非常简单。尤其是,由于不过度使用任何一个小批量处理非常重要,FTPROP 的小批量版本 (i) 每次只使用一个小批量的数据更新每一层的权重和目标;(ii) 只在每一层的权重上采取一个小的梯度下降步,而不是全部优化;(iii) 设置与更新当前层的权重并行的下游层的目标,因为权重不会改变太多; (iv) 删除对可行性的所有检查。我们把这一算法称作 FTPROP-MB,并在附录 A 算法 2 中展示了其伪代码。

FTPROP-MB 非常类似于基于反向传播的方法,通过标准库即可轻松执行它。


算法 2. MINI-BATCH 可行目标传播



图 2:(a)-(c)显示了不同层的损失函数(蓝线)及其导数(红色虚线)。(d)显示量化 ReLU 激活函数(蓝线),它是阶梯函数的总和,对应饱和的合页损失导数(红色虚线)总和,逼近这个总和的软合页损失性能最佳(黄色虚线)。


表 1. 在 CIFAR 10 或 ImageNet 上进行符号、qReLU 和全精度激活函数训练时,各种网络的 Top-1 准确度。硬阈值激活函数由 FTPROP-MB、逐层软合页损失函数(FTP-SH)与饱和直通估计(SSTE)训练。粗体显示了表现最好的激活函数


图 3. 不同激活函数的 alexNet 在 imageNet 上的 Top-1 训练(虚线)与测试(实线)准确度。小图显示了最后 25 个 epoch 的测试准确度。在两个大图中带有软合页损失(FTP-SH,红色)的 FTPROP-MB 要比饱和直通估计(SSTE,蓝色)要好。左图显示了带有标志激活的网络。右图展示了新方法(FTP-SH)使用 2-bit 量化 ReLU(qReLU)训练的表现与全精度 ReLU 几乎相同。有趣的是,在这里饱和 ReLU 的表现超过了标准 ReLU。


论文:Deep Learning as a Mixed Convex-Combinatorial Optimization Problem



论文链接:http://ift.tt/2A4Bxkv


随着神经网络变得越来越深,越来越宽,具有硬阈值激活的学习网络对于网络量化正变得越来越重要,还可以显著减少时间和能量的需求,用于构建高度集成的神经网络系统,这些系统通常会有不可微的组件,确保能避免梯度消失与爆炸以进行有效学习。然而,由于梯度下降不适用于硬阈值函数,我们尚不清楚如何以有原则的方式学习它们。


在本论文中,我们通过观察发现硬阈值隐藏单元的设置目标以最小化损失是一个离散的优化问题,这正好是问题的解决方式。离散优化的目标是找到一系列目标,使得每个单元,包括输出内容都有线性可分的解。因此,网络被分解成一个个感知机,它们可以用标准的凸方法来学习。基于这个方式,我们开发了一种用于学习深度硬阈值网络的递归小批量算法,包括流行但难以解释的直通估计(straight-through estimator)函数作为范例。实验证明,对比直通估计函数,新的算法可以提升多种网络的分类准确度,其中包括 ImageNet 上的 AlexNet、ResNet-18。


]]> 原文: http://ift.tt/2zbfXwA
RSS Feed

机器知心

IFTTT

2017年11月1日星期三

是的,我们正处于数字与实体混合生态的交叉路口


大数据文摘出品

作者:Martin Reeves, Daichi Ueda, Claudio Chittaro

翻译:大力,田奥,姜范波

编辑:亭八


我们正在进入一个数字与实体混合的交叉路口。这样的新兴机会给实体业创造了一个有价值生态系统的新机会。


提到数字与实体的混合生态,不得不提到2017年6月16日,亚马逊宣布将以大约137亿美元的价格收购全食超市(Whole Foods),震惊了业界。因为这项亚马逊目前为止最大的收购意味着:其对传统有机增长商业的发展策略有了重大的转折。


对于亚马逊此举背后的策略分析,人们众说纷纭,有人提出亚马逊Prime会员和全食超市的客户群体有着重叠性,有人提出了传统实体企业的存在价值,也有人认为这是要打造庞大生鲜供应链的需求。


无论这项交易的具体动机是什么,我们都认为这次的收购不是一次独立事件,而是亚马逊宏大蓝图的一部分:从目前的数字生态系统巨头转变为横跨数字和实体世界的更大赢家。这一转变给数字巨头和实体经营者带来了新的机遇,那就是建立一个新的数字-实体生态系统。这个混合生态系统会要求玩家们必须遵守一些新的原则,并且还会采用一系列与原有纯数字生态系统不同的举措。


日本第一人力公司Recruit就为我们提供了一个在这个新领域取得成功的绝佳范例。




数字巨头崛起的渊源


数字生态系统与公司和消费者动态互动的网络之间互相创造了价值,催生了现今社会一些最赚钱最有价值的商业模型。数字生态系统主要通过传递数字商品和服务、大规模的创造数字平台(例如双边市场),来创造价值。美国五个最有价值的上市公司——苹果、谷歌、微软、脸书和亚马逊,都是数字生态系统的玩家。这与十年前的对比是如此强烈,那时微软还是唯一的数字领域霸主,与其并肩的则是四个实业巨头(埃克森美孚、通用电气、AT&T和花旗集团)。


那么,数字生态系统是如何取得霸主地位的呢?答案就藏在一个赢家通吃的动态竞争环境中,赢家可以获得极其巨大的增长并建立自己坚不可破的防御体系。


在这个竞争环境下赢家有三个关键性因素:


第一.零边际成本和正向网络效应


一个成功的数字生态系统玩家会在他们的核心领域提供具有绝对优势的服务。想一想谷歌的搜索引擎和脸书的社交网络,以此为出发点,加上几乎为零的边际生产成本、网络集群效应、地理扩张的低门槛(缺乏相关的贸易保护制度)优势,这些公司都是从他们的数字生态系统慢慢发展到商业巨头的。例如数字商务平台亚马逊,就体现了这些特点:增加一项还是一千项产品的销售几乎不需要附加成本;平台的用户越多就越会吸引更多人成为用户;只需要很少的额外成本就可以将数字产品投放到全世界。


第二.前所未有的数据积累和分析


成功的数字巨头利用了所谓的"数据飞轮效应"优势,在数字生态系统成长中积累了更多的数据,更快地改进服务质量,从而获得了更多的增长。


累积的经验和对大数据的大幅度投资,驱动了数据处理和分析的改进,更增强了这个优势。数字巨头吸引和培养那些供不应求领域(如机器学习和数据工程)人才的能力,又进一步强化了这个良性循环。


第三.无缝衔接和综合性的数字化体验


一旦最终达到某个特定规模,通过给用户提供一个无缝衔接的体验和在单一平台上满足多项需求的能力,数字生态系统可以变得更为庞大。为了这个目的,这些赢家构造出了综合性的生态系统,囊括了众多不同服务的供应商。通过减少用户离开平台的意愿,这些生态系统能够获得用户绝大部分的注意力、时间和价值。


最显著的一个例子便是中国的一站式数字生态系统软件:微信,其整合了亚马逊、脸书、Instagram、推特、Yelp和其他应用的功能,所有的美国数字生态系统玩家也都在向这个方向发展。


数字生态系统的玩家都在全力利用这个赢家通吃的竞争局面以取得市场的主导地位。与之相反的是那些非数字型玩家,由于缺乏上述提到的优势,大部分都没能成功建立起数字生态系统。想想曾经的美国零售巨头希尔斯百货的命运,在2010年之后的头几年里大力投资电子商务业务,希望补足它的传统实体业务。结果,希尔斯百货的数字业务没能达到应有的规模,加上它所忽视的核心业务的销售滑铁卢,导致了公司市值流失超过75%。


数字与实体的交叉路口


数字巨头们到目前无往不利,系统内的实体部门只是一种补充性的基础设施,给顾客们提供服务(如亚马逊的仓库)或创造更好的交互平台(如苹果的旗舰店)。然而现在我们可以看到一种新的变化:创建横跨数字和实体、实现二者深度交互的生态系统的尝试在增加。在各种玩家中我们都可以看到这个变化:数字的、实体的以及新入场的。


看看数字领域里发生的这些事例。亚马逊除了对全食超市的收购外,也在建造与客户联通的实体渠道,例如亚马逊无人超市和亚马逊书店。与此同时,Etsy公司(一个以手工艺品买卖为主的电商平台)与梅西百货也达成合作进入了实体零售行业。Snap公司不仅推出了智能眼镜,还在上市融资前,将自己的定位从纯数字公司转变为数字和实体交叉的企业,称自己为一家"相机公司"。用阿里巴巴CEO张勇的话来说,这种转变的发生是因为:"今天我们总说不能把线上和线下割裂开来……所以为了更好的体验,我们需要将两者以新的方式结合。"


但传统企业们也没有闲着。通用电气就涉足物联网领域发布了Predix,这是一款基于云的联结工业机器并分析其数据改进其效能的平台。西门子也亦步亦趋地推出了另一款云平台MindSphere,并且卓有成效,帮助Amtrak(美国国家铁路客运公司)在2016年减少了33%的误点率。




最近,越来越多的新兴企业没有钻进实体或数字的单行道而是走上了两者的交叉道路。例如一些公司:Opendoor(房产交易网站)、Blue River Technology(农业机器人公司)和Prodea(云服务公司),利用AI产品作为切入点在实体产业中建立了自己的平台,力求成为数字-实体生态系统里住宅房地产领域、农业领域、物联网领域相应的一份子。


在数字与实体的交叉道路上创建生态网络的尝试情况变得越来越普遍。这种现象背后有三个主要因素:


1.前沿未开拓领域的商机。实体经济的体量仍然巨大。其体量虽然很难精确衡量,但是根据BCG(波士顿咨询公司)最近的估算,数字经济仅仅只占全球经济活动的8%。在部分纯数字经济日趋成熟的今天,越来越多的战场将会发生在实体领域中。


2.更多联网的硬件设备。数字世界和实体世界的界限变得越来越模糊。机器人、无人机、3D打印等新技术的出现使得数字技术可以蚕食以前那些无法单独用软件涉足的产业。实体经济与数字领域结合得越来越紧密。物流、制造、农业、房地产等产业开始重组,因为它们的资产越来越多地数字化、联网化。


3.更多实体世界的数据。联网硬件设备的增加也使得实体世界在数据能力上赶上数字领域。实体企业连上云端的数量越多,传感器就分布的越广;住在智能住宅的人越多,实体世界就会越多地成为熟练数字玩家的温床。换句话说,现实世界变得越来越数字化了。"数字飞轮"开始影响实体企业,其效果会波及各个领域。


新环境已然成为数字-实体混合型生态系统成长的沃土,这对竞争中的公司来说又意味着什么呢?


新的生态系统,新的挑战


正如本文前面提到的,数字生态系统依靠赢家通吃的动态局面,这个局面由零边际成本、网络集群效应、数据获取和用户便利四个特点支持。但是混合生态系统可不能仅靠技术和规模取胜。实体领域的运营意味着要面对硬件系统的繁复。混合生态系统的范围可能更窄,因为它们需要更深的专业知识和更密切的商业关系。系统的成长变慢,不仅是因为受到物理条件的约束,也是因为成长的先决条件通常需要经验和付出。因此,混合生态系统可能不会达到纯数字生态系统的宽度和广度。


以丰田为例,丰田精心构建了一个由供应商、创新者和合作商构成的混合生态系统,获得了顶级制造能力和持续的创新能力。丰田的超级生态系统是一个雏形,同时引入了一个稠密的传统实体供应商网络和一个更新的数字生态系统,后者囊括了车队管理、拼车和自动驾驶的潜在能力。丰田用数十年的时间打造了这个生态系统,投资给它的合作伙伴以及他们的潜在价值上面。即便如此,丰田仍然只是众多的汽车制造商玩家之一,全球市场份额不到20%。


混合生态系统和纯数字系统的区别,是生态演替模式的翻版。在新生物圈拓荒的物种(所谓的r物种)通过优先生长获胜。快速繁殖和传播使它们在生物圈内无往不利。然而随着生态系统日趋成熟,环境变得更为多元,新的策略就会出现。在后期阶段,能适应更高密度环境的物种(K物种)更有机会繁荣昌盛。它们的策略更多依靠投资祖辈而不是投资子孙,这种策略转变是生态环境变化产生的自然结果。


同理,不同类型的商业环境需要不同的管理手段。混合生态系统的管理至少需要三个主要转变方法:


1.技术和关系。技术优势显然是数字生态系统成功的关键因素;主要有三个技术挑战:推广一个强大的数字产品、实现此产品的规模化、使利益相关者能够在其上无缝进行无缝建造。数字生态系统的玩家倾向于只关注固定的关系而忽略其他。譬如,亚马逊出了名的顾客至上同时也相对忽视了它的第三方供应商。混合生态系统有着很高的技术要求,但在实体世界中,成功的商业通常依赖于定制化服务、咨询或者可实施性,商业关系也很重要。一个生态系统要成长为决定性的大体量,实施者必须有深入的了解并将现实世界人们和企业的行为改头换面纳入其中。这需要与其他玩家们建立强有力的联系,并发展特定的能力。在混合生态系统内创造价值不仅需要交易行为也需要变革管理。


2.深度和广度。广度是成功的数字生态系统的主要特征之一。例如,发达国家的绝大多数消费者都使用像Google和Facebook这样的近乎是数字生态垄断者的服务。但这些生态系统往往不会很深;它们没有针对特定的利基市场或特定的使用模式进行优化,而是着重于满足"共同需要"。混合生态系统需要发展足够的广度来达到临界体量,但同时必须深入关注特定问题,并利用有关领域的专门知识来解决这些问题。他们的商业模式依赖于通过解决具体问题创造更大的价值,而不是立身于一个巨大的开放的利基市场。只有这样才能完全满足客户需求。


3.新型生态系统的诞生和旧式生态系统的复兴。数字生态系统主要占据新兴的利基市场,占领者大都是一些暴发户。他们享有从头开始的奢侈便利条件,并在建立新市场的时候制定了市场规则。混合生态系统将主要涉及现有的利基市场,现有能力和现有竞争对手。因此,混合生态系统必须在创造全新能力和利用或积极重塑现有能力之间取得平衡。他们必须能够创造新的东西,并同时再造旧的东西。


那么,是否有哪家公司成功地将这些指导原则转化为行动呢?我们来看一个连续不断这样执行的公司,来证明它是一个可靠的可重复的公式。


Recruit集团:混合生态系统冠军


Recruit集团目前是日本最成功的大型企业之一,在近五年来的低迷经济依然保持年增长率接近20%。这家公司的管理方式:在旅游,餐饮,教育,二手车销售和招聘等领域建立多个数字-实体生态系统。在每个领域,Recruit集团旨在成为由数字和实体玩家组成的、集中垂直聚焦的混合生态系统的协调者。


例如,Recruit集团通过将数十万家餐馆和各种服务提供商以及开发者聚集在一个平台上,在日本建立了餐饮生态系统。通过这个平台,AirREGI,餐厅不仅可以访问各种Recruit集团自身提供的服务,还可以访问广告,会计,劳动力管理,采购,付款处理等数十个领域相关的服务,甚至还可以使用前沿的机器学习推荐引擎。虽然Recruit集团的角色是建立数字平台,但是它仅因为拥有与餐馆和供应商建立起关系的强大的战斗力就能渗透到实体餐厅市场。


Recruit集团已经成功建立混合生态系统,部分原因在于公司强调了提出可推广公式(称为"卡塔")的重要性。事实上,当它在选拔员工颁发全公司创新奖时,它会明确地寻找有潜能在多个场景中应用的创新项目。Recruit集团将他们建立和管理成功的混合生态系统的公式称为Ribbon模型。以下五个要素是这种模式的一些关键要素:


1.创造商业系列文化。考虑到垂直领域过于集中,混合生态系统的规模往往比不上广度型的数字生态系统。这意味着想要成为混合生态系统协调者的公司必须创造多个生态系统,以保持其增长曲线。事实上,这就是Recruit集团实现增长的方法:它投资了十几个生态系统。


这意味着Recruit集团必须聘请和培养创业人才,并通过在公司内部建立一个创业型生态系统来实现。Recruit集团身兼数职:种子加速器,风险投资家,顾问,后台服务提供商,以及公司内未来企业家的猎头。任何员工都可以申请开展新的业务计划,与外部人员合作,发展成为新的生态系统。Recruit集团通过这种方式来系统地发现、鼓励和培养创业人才。比如New Ring就是一个这样的项目,每年收到1000多个提案,并产生出一些Recruit集团的核心生态系统。


2.结合领域和技术专家。数字生态系统的竞争优势通常在于其卓越的技术,因而着迷于对技术人才:强大的工程师和设计师对于可扩展性和创造卓越的产品体验至关重要。然而,在混合生态系统中,领域专家也是必要的,他们能够发现和解决客户的深层次需求。因此,混合生态系统协调者的关键能力是招募领域和技术专家,并将其聚集在一起,共同解决挑战。


Recruit集团促进这些专家之间的协作,允许其顶尖人才在业务领域自由行动。例如,通过连线内容管理专家和身在其他公司的机器学习专家,Recruit集团能够大大降低处理在线客户评论相关的人工成本。这样的成功案例在企业级平台中共享,以激励其他技术专家和领域专家寻求合作的机会。


3.平衡生态系统的各个方面,包括供应方。在生态系统中,通常有一组特定的利益相关者可以产生收入(例如,消费者,广告客户或商业客户)。专注于满足创收方面的需求是很有吸引力的工作。在数字生态系统中,这个群体通常是最终消费者,而这些生态系统中的供应商和创新伙伴常常被忽视或挤压。混合生态系统比其他生态系统更为依赖于所有参与者,他们的协调者必须确保每个利益相关者群体得到公平的对待。


Recruit集团将这一概念建立在其生态系统管理模式中,将其自身作为消费者和供应商之间的粘合剂,在第一次接触和创造价值之间创造了许多显著的里程碑。例如,二手车销售生态系统消费者的里程碑包括意见数量,查询次数,个人联系人数和销售人数。然后将这些里程碑转化为KPI,并将其用作衡量跟踪生态系统整体健康状况的指标。


4.与其他利益相关者进行实验和共同演进。为了长期蓬勃发展,混合生态系统必须不断适应和学习。能够确定生态系统方向的协调者必须推动这一进程。但是,协调者不应该以议事规则来制定议程,而应该充当吸引学习机会的天线,以及帮助其他合作伙伴抓住利用这些机会。协调者必须谦虚地与其他成员进行实验和学习。


Recruit集团生态系统创新战略的核心是强大的领域实力和强调共同进化,因为Recruit集团的领域实力不仅要创造收入和实现目标,还要与客户建立深厚的关系,以便能够了解市场潜在的机会并动员他们周围的利益相关者。


例如,Recruit集团协调一个名叫Yuki Maji!19的大型活动以振兴日本的冬季运动。该运动为19岁的人提供免费滑雪门票,最初受到了度假村业主的严重抵制,但通过与广告商、政府机构、度假村和行业组织的合作,Recruit集团最终能够说服数百个度假村参与这项活动,这是商业上的成功。


5.有勇气重新搭建旧的生态系统。每个成功的公司都面临着从成功中产生的困境:通常很难改变正在运转的工作。正如众所周知的柯达和百视通公司的故事,他们拥有利润丰厚商业模式和充裕的资源,但仍然没有对高度可见的渗透行为作出足够的反应。这对实体公司和数字公司来说都是一个持续的威胁。为了赢得新的混合利基市场的战斗,公司必须愿意拆解他们现有的商业模式,无论是数字的还是实体的。通常,这需要创造一种紧迫感来激发自我破坏的能量。


Recruit集团在二十世纪初期将其杂志旅游生态系统(简称为Jalan)转变为在线旅游生态系统。Jalan在杂志上销售广告位,由于竞争日益激烈,每年收入下降5%。Jalan的在线平台一开始并没有预订功能,无法与更先进的在线旅行社竞争。在2000年后,Jalan经历了痛苦的转变,用一个全新的、未经测试的在线模式取代了旧的商业模式:Recruit集团通过任命新经理(从旅游业外)以发出业务向新的方向发展的信号,并在新模式盈利之前一直在其身上投资了七年之久。这种方法就像基因扩增治疗一样,公司全面引入了新的"基因",为旧的生态系统提供了新的功能。


"新"实体公司的发展路线


Recruit集团的经验表明了如何在数字到实体生态系统领域取得成功。但在这个领域,纯粹的实体公司也可以具有竞争力。在数字和实体交叉路口的新兴机会给实体业创造了一个有价值生态系统的新机会。


为了充分利用这些机会,实体业应该认识到,他们不是在追赶,而是在开创一个新的游戏——在这里,他们有可能定义新的利基市场和新的规则。实体企业的领导者也可以从Recruit集团中学习一些经验教训,以帮助他们走好自己的路。


所以,"新"实体公司的发展路线首先要加强战略的双向性,同时探索新的能力和利用旧的能力。管理相互矛盾的目标对于今天的所有企业领导者都至关重要,但对于尝试构建混合生态系统的人来说,这是倍加重要的。这项任务将涉及技术和关系,广度和深度以及创造和复兴。


第二,他们必须有勇气和有能力设想和塑造新的空间,并组织起来企业内部和外部的利益相关者。这些"塑造能力"往往与数字巨头公司更为密切相关。因此,实体公司开始投资于生态系统建设和管理相关的至关重要的管理技能,是更为迫切的事情。


最后,他们必须把混合生态系统作为重复多次而不是一次性的游戏。数字生态只要获胜一次就足够了,而混合生态系统往往会涉及到多次战胜对手和一个实现这一目标的系统。公司可能会在一个生态系统成为赢家,而在其他生态系统中成为参与者。这种动力学将有利于那些投资可重复模式的公司,以及优先考虑诚信和协作的公司。


数字生态系统是我们见过的最成功的商业模式创新之一。然而,它只是商业合作许多的可能模式之一。随着数字经济的生长和繁增,数字经济将不可避免地为数字-实体生态系统创造新机遇。实体业现在就应该开始做好准备。



]]> 原文: http://ift.tt/2lDw1BW
RSS Feed

机器知心

IFTTT

安利一则深度学习新手神器:不用部署深度学习环境了!也不用上传数据集了!


大数据文摘作品

作者:Emil Wallnér

编译:高宁、Happen、陈玲、Alieen


深度学习的浪潮在五年前开始兴起。随着计算能力的爆炸型增长和几个成功的案例,深度学习引起了大肆宣传。深度学习技术可以用来驾驶车辆,在Atari游戏中进行人机对抗,以及诊断癌症。



开始学习神经网络时,我花了两周的时间进行探索,选择合适的工具,对比不同的云服务以及检索在线课程。但回想起来,我还是希望我可以从第一天就能创建神经网络,这也是这篇文章的目的。


你不需要有任何预备知识。当然如果你对Python,命令行和Jupyter notebook有基础的了解会对你有所帮助。


深度学习是机器学习的一个分支,它被证明是一种可以在原始数据(如一幅图、或者一段声音)中找到固定模型的有效方法。 如果你想对猫和狗的图像进行分类。不需要具体的编程,它首先会找到图片中的边,然后从不同的边中构建模式。接下来,它会检测到鼻子,尾巴和爪子。通过这样的方式,神经网络最终可以实现对猫和狗进行分类。


但是,结构化的数据可以使用更好的机器学习算法。举个例子,如果你的excel表中记录了有序的客户数据,你希望可以预测他们的下一张订单,那么你可以使用传统的方法,使用一个更简单的机器学习算法。


核心逻辑

想象一个安装了很多随机调整齿轮的机器。这些齿轮堆叠在很多层上,而且会相互影响。最初,这个机器无法正常工作。然后随机地调整齿轮,直到调整到可以给出正确输出。


然后一个工程师会开始检查所有的齿轮,然后标记出来哪些齿轮会造成误差。他会从最后一层的齿轮开始,因为这里是所有误差累计的结果。一旦他找到了最后一层的误差,他就会开始查看前一层。通过这种方法他可以计算出每一个齿轮对于误差的贡献值。我们把这个过程称为反向传播。


然后这个工程师开始根据之前找到的误差对每一个齿轮进行调整,然后重新运行整个机器。运行机器,计算误差,调整齿轮,不断循环这个过程直到机器给出正确输出。


预测 – 计算误差 – 调整预测值 (训练周期)


神经网络的运行方式也是如此,有输入和输出,然后通过调整齿轮来寻找输入和输出之前的关系。给定一个输入,通过调整齿轮来预测输出,然后将预测值和真实值进行对比。


神经网络通过调整齿轮来追求最小误差(预测值与实际值之前的差异),它会不断调整齿轮,直到预测值与真实值之间的差异尽可能小。


最小化误差的一个最佳方法是梯度下降,即通过误差函数、或者说成本函数来进行误差的计算。


浅层神经网络

许多人认为人工神经网络是我们大脑新皮质的数字化复制品。 这是一个错误的观念。


我们并不知道大脑如何能够做出这样的声明。这只是神经网络发明人弗兰克·罗森布拉特(Frank Rosenblatt)的一个灵感源泉。



浅层神经网络 输入-权重-加和-判断 –> (预测值-实际值)*学习率


与神经网络模拟器玩一两个小时,你就可以获得对其的直观感受。


我们将从实现一个简单的神经网络开始,以了解TFlearn中的语法。从经典的101问题开始,也就是OR运算符。虽然神经网络更适合于其他类型的数据,但这是了解其工作原理的一个很好的问题。



所有的深度学习程序都遵循同样的核心逻辑:1.首先加载库,然后加载数据并清洗。不管是照片,音频还是知觉数据,所有的输入都会被转化为数字。这些很长的数字列表就是我们神经网络的输入。2.现在开始设计神经网络。选择你的神经网络层的类型和数量3.然后它会进入学习过程。4.神经网络知晓输入和输出,然后自行寻找二者之间的关系。最后会用训练好的模型中给到你一个预测值。

下面是这个神经网络的程序:输出

第一行 以"#"开头的行表示备注,一般用来解释代码

第二行 加载TFlearn库 通过这个语句我们可以使用谷歌Tensorflow的深度学习函数

第五行和第六行 将上述表中的数据存储在列表中

每个数字末尾的点会将整数映射到浮点数。它存储具有十进制值的数字,使计算更加精确。

第七行 初始化神经网络,并指定输入数据的维度或者说尺寸

所有的OR运算都是在一对数据中进行的,所以维度是2.

空值是默认值,表示批量的大小

第八行 输出层

激活函数将过程中的结果映射到输出层

在这个例子中,我们使用Sigmoid函数将其映射到(0,1)区间范围内

第十一行 应用回归使用优化器选择合适的算法来最小化成本函数学习率决定了神经网络的调整速度,而损失变量决定了如何计算误差。

第十二行 选择使用哪个神经网络

一般情况下也可以用来指定存储训练日志的位置

第十三行 训练你的神经网络和模型

选择你的输入数据(OR)以及实际的标签(Y_truth)

Epochs决定了你的神经网络运行数据的循环次数

如果你设置 snapshot=True,那么每次循环后都会进行模型验证

第十四到十八行 使用训练好的模型进行预测

在这个例子中,返回的是结果是1/True的概率


输出层

第一个结果表示[0.]&[0.]组合为真的可能性为4%,以此类推。"Training step"显示了你训练了多少批。

在每一批中所有数据都将训练一次,类似于Epoch。如果数据相对内存较大,你需要停止分段训练。损失函数会计算每一次迭代的错误数量。

SGD指随机梯度下降法及最小化代价函数方法。

Iter指当前数据索引以及输入项的总和。

你可以在大多数TFlearn神经网络中找到上述逻辑和语法。学习这段代码最好的方法就是修改代码并产生一些错误。



损失曲线显示了每一次训练的错误量

你可以通过Tensorboard来可视化每一次实验,并了解每一个参数是如何影响训练的。

这里有一些你可以运行的例子的建议。我推荐你花费几小时练习这些例子,以更好地适应运行环境以及TFlearn中的参数。


实验

  • 增加训练与迭代次数
  • 尝试添加或改变文档中提到的每一个函数的参数

例如g = tflearn.fullyconnected(g, 1, activation='sigmoid')改成tflearn.fullyconnected(g, 1, activation='sigmoid', bias=False)在输入项增加整数

  • 改变输入层的形状
  • 改变输出层的激活函数
  • 使用不同的梯度下降方法
  • 改变神经网络计算代价的方式
  • 用X和Y来替代"AND"和"NOT"逻辑运算
  • 例如将最后一项Y_truth从[1.]改为[0.]。为了使其有效,你需要在网络中增加一层。
  • 使其学得更快
  • 想办法使得每一步学习都超过0.1秒

新手入门 

结合Python来使用Tensorflow在深度学习中是最常见的手段。

TFlearn是一个运行在Tensorflow之上的高层次框架。

另一个常见的框架是Keras。这是一个更加健壮的库,但是我发现TFlearn的语法更加简洁易懂。

它们都是运行在Tensorflow之上的高层次框架。

你可以使用你的电脑CPU来运行简单的神经网络。但是大多数实验需要运行数个小时甚至几周。这也是为什么大多数人通过现代GPU云服务来进行深度学习。

最简单的GPU云服务解决方案是FloydHub(http://ift.tt/2z8OziO

使用FloyHub文档来安装floyd-cli命令行工具。FloydHub还为遇到问题的客户提供内部客服支持。

让我们在FloyHub中使用TFlearn、Jupyter Notebook以及Tensorboard来运行你的第一个神经网络吧!

安装FloydHub并登陆,下载这份指南中所需的文件。


打开终端,输入以下命令:


进入文件夹并初始化FloydHub:


FloydHub会在你的浏览器打开web面板,提示你创建一个名为101的新项目。完成后回到终端,再次输入初始化命令。

现在你可以在FloydHub上运行你的神经网络任务了。


你可以通过"floyd run"命令进行不同的设置。在我们的案例中,我们希望:

o   在FloydHub中增加一个已上传的公共数据集

o   data emilwallner/datasets/cifar-10/1:data 指定数据目录。你可以在FloydHub上查看该数据集(以及许多其他公共数据集)。

o   gpu 使用GPU云计算

o   tensorboard 激活Tensorboard

o   mode jupyter Jupyter Notebook模式下运行任务

OK,开始运行我们的任务:


在浏览器中初始化Jupyter后,点击"start-here.ipnyb"文件。

start-here.ipnyb 包含了一个简单的神经网络,可以了解TFlearn语法。它学习了"OR"逻辑,随后解释了所有组合。

点击菜单栏的"Kernel "下的 "Restart & Run All"。如果你能看到信息,说明它工作正常,你就可以去做其他事情了。

前往你的FloydHub项目,找到Tensorboard链接。


深度神经网络

深度神经网络指的是包含一层以上隐藏层的神经网络。目前有非常多的关于CNN(卷积神经网络)工作原理的详细教程。

因此,我们将关注适用于更多神经网络的高层次概念。


注:该图不是一个深度神经网络。它需要一层以上隐藏层。


你想训练神经网络来预测未经训练的数据。它需要能泛化的能力。这是一种介于学习与遗忘之间的平衡。


你想它能学习如何将信号从噪声中分离,但是同时遗忘只在训练数据中出现的信号。


如果神经网络未经充分学习,它会出现欠拟合现象。与之相反是过拟合现象。它指的是从训练数据学习过多。


Regularization (正则化)是一种通过遗忘训练中的特定信号来减少过拟合的方法。


为了进一步理解这些概念,我们在CIFAR-10数据集上开展实验。该数据集包含了10种类别6万张的图片,例如汽车、卡车和鸟。目标是预测一张新的图片属于哪种类别。




CIFAR中的示例图片


通常我们需要挖掘数据、清理数据以及过滤图片。但是为了简化过程,我们只关注神经网络。你可以在Jupyter notebook中运行安装的所有例子(http://ift.tt/2z8OBXY


输入层输出层将图片分为10类。隐藏层混合了卷积层、 pooling以及连接层。


选择层数

让我们来对比下只有一层的神经网络和有三层之间的区别。每一层包含卷积层,池层,和关联层。



你可以通过点击在菜单栏中的Kernel > Restart & Run All 来运行这些脚本。接着再瞥一眼Tensorboard中的训练记录。你会发现有很多层的多准确了15%。较少层的拟合度低 — 证明它学的还不够。


你可以运行你先前下载的文件夹中相同例子,同样包括接下来的试验。

让我们看一眼准确度和验证集的准确度。深度学习中最好的实践是将数据集一分为二,一部分用作训练这个神经网络,剩下的则用作验证它。通过这种方法可以告诉我们神经网络在预测新数据中表现如何,或是类推的能力。


就如你所见,训练数据的准确度高于验证数据集。这个神经网络包含了背景噪声和其他阻碍预测新图像的细节。


为解决过拟合问题,你可以惩罚复杂方程并在神经网络中增加噪声。普遍解决这个的正则化技术有丢弃层和惩戒复杂方程。


丢弃层

我们可以对比一下丢弃正则化这样理解:一些强大的神经元并不决定最终结果,而是由他们分配权力。

神经网络被迫使去学习一些独立的表现。当做最终的预测时,它则有一些不同的模型去学习。

下面是一个有丢弃层的神经网络的例子。



在这项对比中,两个神经网络是一样的除了其中一个有丢弃层,另一个没有。



在神经网络中的每一层中,神经元变得更依赖于彼此。某些神经元比其他的更有影响力。丢弃层随机的丢弃部分神经元。这样,每一个神经元需要为最终输出提供不同的贡献。


另一个流行的预防过拟合的方式是在每一层中运用L1 或L2 正则方程。


L1  & L2 正则方程

比方你想描述一匹马,如果这个描述太仔细,你则会排除掉太多不同形态的马。但是如果太笼统则可能包括进来很多别的动物。L1 和L2 正则化帮助我们的网络去做这种区分。

如果我们与之前试验类似的对比,我们会得到相似的结果。



有正则化方程的神经网络表现的比没有的要好。

正则化方程L2 惩戒方程太过复杂。它测量每一个方程对于最终输出的贡献量,接着惩罚系数大的方程。


批量大小

另一个重要参数是批量大小,在每一步训练中的数据量。下面是一组大批量数据与小批量数据的对比。



就如你所见,大批量所需的周期更少但在训练中更精确。对比之下,小批量更随机但需要消耗更多步来补偿。

大批量不需要很多学习步骤。但是,你需要更多存储空间和时间去计算每一步。


学习率

最后一个试验是对比大,中,小不同学习率的网络。



学习率因其影响力被视为最重要的一个参数。它规范了如何在每一步学习过程中调节预测中的变化。如果这个学习率太高或者太低都无法收敛,就如上图的大学习率一般。


设计神经网络没有特定的方式。很多是要通过试验来决定。看看别人如何增加层数和如何调节高阶参数的。


如果你有强大的计算能力,你可以设计一个程序和调节高阶参数。


当你完成了运行工作,你应当为你的GPU云降低运转速度比如通过取消FloydHub网页仪表盘来结束工作。


后续

在TFlearn的官方示例中(http://ift.tt/2zZfcDW


学习Python的语法和熟悉它的命令语句是非常值得的一件事。这可以有效减少不必要的认知负荷从而全神贯注于深度学习概念上。从Codecademy的Python课开始,接着做一些命令语句练习。如果只做这一件事,你花不到三天就能掌握。


原文链接:http://ift.tt/2fIYvVg


]]> 原文: http://ift.tt/2hwVpVu
RSS Feed

机器知心

IFTTT

LangChain 彻底重写:从开源副业到独角兽,一次“核心迁移”干到 12.5 亿估值 -InfoQ 每周精要No.899期

「每周精要」 NO. 899 2025/10/25 头条 HEADLINE LangChain 彻底重写:从开源副业到独角兽,一次"核心迁移"干到 12.5 亿估值 精选 SELECTED 1000 行代码手搓 OpenAI gpt-oss 推理引...