2017年11月8日星期三

思岚科技推出新一代机器人开发平台Apollo,让机器人开发更简单

为了不断完善产品、创新变革

满足各式各样的差异化市场需求

思岚科技针对中小型机器人

推出新一代机器人开发底盘—Apollo

 

Apollo,新一代机器人通用开发平台

 

APOLLO(阿波罗)是由SLAMTEC研发的中小型可扩展机器人平台,主要满足中小型机器人应用开发的需求。依靠内置的高性能SLAMWARE自主导航定位系统,可搭载不同应用,并在多种商用环境中开展工作,无需外部环境调整及人为编程设置,接口丰富,可扩展性强,可满足不同应用需求。

 

Apollo,让机器人开发更简单


Apollo的出现,为中小型机器人开发提供完!整!可!靠!的机器人自主定位导航解决方案,让中小型机器人生产厂家无需再为机器人底层行走功能耗费研发时间、成本和精力,快速开发。同时提供开放的软硬件接口,基于RoboCloud云服务,让机器人开发更简单。

 

强大的识别、感知、理解、判断和行动能力,让机器人自主定位、建图、避障及规划路径。

 

Apollo内置SLAMWARE自主导航定位系统,搭载雷达、超声波、防跌落、深度摄像头等多种传感器,拥有强大的识别、感知、理解、判断及行动能力,让你眼前一亮。

 

自主建图定位和导航

 

当Apollo处在陌生环境时,不会畏手畏脚,不敢前行。Apollo采用激光SLAM技术,无需对环境进行修改,即可在未知场景中完成实时定位并测绘高精度地图。采用D*动态即时路径规划算法寻找路径并移动到指定地点



采用SharpEdgeTM精细化构图技术构建高精度、厘米级别地图,超高分辨率,不存在误差累加。同时,构建的地图规则、精细,直接使用,无需二次优化修饰,直接满足你的使用预期。

 



深度摄像头传感器:


不得不承认,Apollo是存在一些"生理缺陷"的,比如个儿不够高,无法成为大长腿欧巴。但是,这并不影响Apollo"站得高,看得远"。


当雷达扫描区域上方出现障碍物时,Apollo将使用融合导航技术,通过深度摄像头、超声波、雷达等传感器全面感观周围环境,规避障碍物并重新规划路线。



 

超声波传感器:


当Apollo遇到玻璃、镜面等高透材质障碍物时,不会像无头苍蝇一头撞上,超声波传感器能让Apollo及时识别、避让此类障碍物,继续行走。在Apollo眼里,擦得再干净的玻璃都不是事儿!


 

防跌落传感器:


3枚防跌落传感器可帮助Apollo 360°侦查周围的工作环境,判断工作区域是否存在边界、台阶、坡度等情况,从而发送信号请求Apollo改变前进方便,防止"踩空"跌落;


 

虚拟墙&虚拟轨道


当你想让Apollo按照预定路线行走或者想阻止Apollo进入某个工作区域时,可在Robostudio上设置虚拟墙和虚拟轨道。基于纯软件方式,无需额外辅助铺设,稳定可靠 。


虚拟墙 


虚拟轨道

 

自主返回充电


当Apollo在工作过程中电量过低时,可支持可外部调度的预约式充电自主导航定位,自动返回充电坞充电。



云端远程管理

基于云服务,远程管理已注册的Apollo平台




第三方应用拓展

  • 完全开放的软硬件平台
  • 提供外扩硬件支持
  • 通过SLAMWARE SDK进行业务逻辑应用开发



Apollo,不"止"是ZEUS二代。除了拥有以上基本功能之外,Apollo还具有自主上下电梯、自主构建多楼层地图、集成接口等功能,方便用户迅速开发拓展。 


可扩展功能

  • 自主上下电梯,到达指定地点
  • 随时监测自身所处楼层
  • 自主构建多楼层地图
  • 终端用户随时随地查看


集成接口

  • 集成了网口、供电接口以及各种控制接口
  • 便于用户快速进行开发扩展

更多可扩展功能,适用于各类轻商用场所


除了自主建图、定位、避障、导航等核心功能之外,Apollo还具有自主上下电梯、多楼层建图等可扩展功能。同时,开放的软硬件接口,RoboCloud云服务,可实现更多扩展功能。


机器人如果没有"一双手"按电梯,没有"两只脚"爬楼梯,在面对多楼层活动时,是否很无奈。别担心,Apollo采用思岚专门研发的电梯适配与多楼层定位系统,支持市面上绝大多数的电梯系统,自主上下电梯,多楼层建图不是问题。




客户可根据实际需要,进行上层应用开发,将Apollo应用在多楼层、人流量大的场所。如商场、写字楼、航站楼,充当导览人员、物品传递人员等角色,提高工作人员工作效率的同时又尽显场地的高大上。总之,如何应用就看你这双"上帝之手"如何造就它。


1、商场



2、前台



3、航站楼



更多应用扩展,看你Show出来~


超高性价比,减少机器人研发成本


由于机器人研发所涉及的核心技术多、流程复杂,导致机器人市场成品的研发和生产周期都相对过长,出现"市场需要产品,产品跟不上市场需求"这种尴尬现象。

 

Apollo作为中小型机器人开发平台,可让研发人员基于完整可靠的底层应用,自定义开发上层应用。在技术和生产的研发上节省大量的时间、精力和成本,且价格优于市场的同类产品,具备超高性价比。Apollo,让机器人开发更简单。


]]> 原文: http://ift.tt/2zorLMj
RSS Feed

机器知心

IFTTT

FSB两万五千字长报告:监管者眼中的AI+金融全景图(内附报告)

编译 | 邱陆陆

来源 | FSB


如今,金融服务行业对于人工智能 (AI) 和机器学习的应用进展迅速。主要原因在于,后者在金融部门数据和基础设施可得性等方面的技术优势,很好地满足了金融服务业在提高利润、市场竞争及金融监管要求等方面的需求。可以看到,目前,大量应用方向主要集中在:


-金融机构和销售商正在使用人工智能和机器学习方法来评估信用质量、为保险合约定价并进行营销、自动化客户交流过程。-机构正在利用人工智能和机器学习技术优化稀缺资本的分配、调整回溯测试模型,并分析大额交易的市场影响。-对冲基金、券商和其他公司正在使用人工智能和机器学习来寻找高收益(且没有相关性),并优化交易执行。-公共部门和私营机构都可以使用这些技术进行合规监管、监察、数据质量评估和欺诈检测。


尽管新技术的使用处于早期阶段,对于整个行业的影响还无明确数据可考,但随着两者融合的不断加深,会给金融稳定性带来的潜在益处和监管风险,仍然值得关注。


我们从 FSB (Financial Stability Board,金融稳定理事会) 一份长达两万五千字的报告中,选取了部分内容,详述人工智能和机器学习在金融业的应用方向及值得关注的潜在问题。


报告结构如下。第 1 部分中,定义了报告的核心概念,并给出了人工智能和机器学习在金融应用方面取得发展的一些背景。第 2 部分描述了推动这些技术在金融服务中的应用的供求因素。第 3 部分描述了四类用例:(1)以客户为中心的应用;(2)以运营为中心的应用;(3)交易和资管;和(4)合规和监督。第 4 部分是这类应用对金融市场、金融机构和消费者产生影响的微观分析。第 5 部分是这类应用对金融体系产生影响的宏观分析。最后,第 6 部分评估了应用对金融稳定性的整体影响。


本文为第一部分,主要涉及到核心概念、背景与驱动力:


1. 核心概念与背景


计算机科学和统计学的研究人员已经开发出先进的技术来从大量不同的数据集中获得见解。数据可能有不同类型、来自不同来源、拥有不同质量(结构化和非结构化数据)。这些技术利用计算机从经验中学习,并具有执行图像识别或自然语言处理任务的能力。应用计算工具解决传统上需要人类智能的任务被广泛地称为「人工智能」(AI)。作为一个领域,人工智能已经存在了很多年。然而,近年计算能力的提高,加上数据的可用性和数量的上升,让人们重拾对人工智能的兴趣。已有人工智能应用被用于诊断疾病、翻译语言和驾驶汽车;也有越来越多的应用被用于金融领域。


描述这个领域需要很多术语,所以在继续之前我们需要进行一些定义。「大数据」是一个没有单一、一致定义的术语,但是被广泛地用来描述使用各种技术对大型复杂数据集进行存储和分析的行为。这种对大型复杂数据集的分析通常被称为「大数据分析」。体现大数据分析复杂性的一个关键特征是,数据集中包含大量非结构化或半结构化数据。


本报告将「人工智能」定义为能够执行传统上需要人类智能的任务的计算机系统理论与发展。人工智能是一个广泛的领域,其中「机器学习」是它的一个子类别。机器学习可以被定义为通过设计一系列行动(算法)来解决问题的方法。算法根据经验自动优化,此过程无需人工干预或只需要有限的干预。这些技术可以用来从来源日益多样化的大规模数据中找出模式。图 1 给出了一个概述。




许多机器学习工具基于大多数研究人员熟悉的统计方法。这类方法包括通过扩展线性回归模型来处理数百万规模的输入,或使用统计技术来概括大数据集以便于可视化。然而,机器学习框架本质上更加灵活。能够被机器学习算法检测的模式不拘于线性关系(这通常是经济和财务分析的主旋律)。一般来说,机器学习旨在(自动)优化、预测和分类,而不是进行因果推断。换言之,预测公司债券到底是投资级还是高收益级,可以用机器学习来完成,而确定哪些因素导致债券收益率水平变化可能就不会使用机器学习来完成了。


机器学习算法有多个类别,分类标准是数据标注过程中人工干预的程度:


•在「监督学习」中,算法得到一组「训练」数据,数据中包含某些标签。例如,一组交易数据可能包含欺诈性/非欺诈性标签。该算法将「学习」一种通用的分类法则,用于将余下的不在训练集中的数据分类为欺诈性/非欺诈性。


•「无监督学习」是指提供给算法的数据不包含标签的情况。该算法通过识别簇(clusters)的方式寻找规律。簇指的是将数据按照其内在的特征进行的分堆。例如,可以建立一个无监督机器学习算法来寻找某一流动性很差的、难以定价的证券的类似证券,然后簇中其他证券的定价就可以用来帮助对这个流动性很差的证券进行定价。


•「强化学习」处于有监督学习和无监督学习之间。在这种情况下,算法会得到一组无标记数据,为每个数据点选择一个动作,并接收到帮助算法学习的反馈(可能来自人类)。例如,强化学习可以用于机器人控制、博弈论和自动驾驶。


•「深度学习」是机器学习的一种形式,它使用由大脑的结构和功能所启发的,通过「层」的方式工作算法进行学习。深度学习算法,其结构被称为人工神经网络,可用于有监督、无监督或强化学习。


近年来,深度学习在图像识别,自然语言处理(NLP)等多个领域取得了显著成果。深度学习算法能够发现可泛化的概念,如,从一系列图像中编码出「汽车」的概念。投资者可能会部署一种能够识别汽车的算法,从卫星图像中计算出卖场停车场中的汽车数量,以便推算某个特定时间范畴内大概的销售数字。自然语言处理允许计算机「阅读」并生成书面文本,或者,在与语音识别相结合时,能够阅读并生成口语。这使得公司能够自动化以前需要人工干预的金融服务功能。


机器学习可以用于解决不同类型的问题,如分类或回归分析。分类算法,即将观察得到的样本分为有限个类别的算法,在实践中有极为频繁的应用。分类算法是基于概率的,意味着算法会将一个数据点归类到「数据点属于此类别的概率」最高的那一类中。举个例子,算法可以自动阅读卖方报告,并标记其态度有多大概率是「看涨」或「看跌」。或者,算法也可以估计某未获评级的公司的初始信用评级。相比之下,回归算法对一个问题的估计可能有无限种答案(连续的可能解集)。这个答案可能会和置信区间一起出现。(译者注:比如说,有 95% 的概率,该债券下个月此时的价格在 100 元到 105 元之间。)回归算法可用于期权的定价。回归算法也可以用作分类算法的一个中间步骤。


比了解机器学习能做什么更重要的是要明白机器学习不能做什么,比如确定因果关系。一般而言,机器学习算法被用于识别与其他事件或模式相关的模式。机器学习识别的仅仅是相关性,只不过其中相关性一些是人无法捕捉到的而已。然而,经济学家和其他人正越来越多地使用人工智能和机器学习应用,结合其他工具与领域专业知识,协助理解复杂的关系。


许多机器学习技术并不新。事实上,神经网络这个深度学习的基本概念最初是在 20 世纪 60 年代发展起来的。然而,在最初的一阵热潮之后,机器学习和人工智能没有实现他们曾经的愿景,在十几年后耗尽了领域内聚集的资金。造成这种结果的部分原因是计算能力以及数据的匮乏。在 20 世纪 80 年代,人们重燃对这个领域的兴趣,并提供了大量资金支持,在这个阶段,许多对于之后的突破至关重要的概念被开发出来。


到了 2011 年和 2012 年,随着现代计算机计算能力的巨大增长,机器学习算法,尤其是深度学习算法,开始持续在图像、文本和语音识别竞赛中获胜。注意到这一趋势后,主流科技公司开始收购深度学习初创企业,并迅速加速深度学习研究。同样创新高的是对于大规模数据的收集行为,例如,现在你能够获得精确到单笔交易的银行全部信用卡交易数据,或者获得互联网上出现的每一个字,乃至用户访问网站时鼠标悬停的轨迹。其他领域的进步也对机器学习有所帮助,例如在云计算架构下,信息技术资源的互联性显著增强,使得大数据可以得到有效组织和分析。而随着对这种大规模、高复杂度数据集的出现以及计算能力的提升,机器学习算法的结果也得到了显著提高,其中一些在算法在接下来的章节里会被展开介绍。这也进一步刺激了对 AI 初创企业的大量投资。世界经济论坛报道,全球对于人工智能创业的投资从 2011 年的 2.82 亿美元上升到 2015 年的 24 亿美元。在这一时期,人工智能领域的并购与收购交易(M&A)数量也在显著上升(图 2)。




如今的大多数应用更接近于一种「增强智能」,或者旨在增强人的能力,而不是试图取代人。即使人工智能和机器学习领域继续按照今天的发展速度进步下去,大多数行业也不会试图让机器完全复制人类的智能。正如一位业内观察家所指出的那样:「...... 在整个闭环中引入人是至关重要的:与机器不同的是,我们能够考虑情境并利用常识将 AI 得出的结论投入实际应用」。


2. 驱动力


促成金融科技(FinTech)日益普及的各种因素也促进了人工智能和机器学习在金融服务领域的应用。在供给方面,金融市场参与者已经从其他领域开发人工智能和机器学习工具的过程中获益良多。更快的处理器速度带来的计算能力的提升、更低的硬件成本以及更容易地通过云服务访问计算力的条件也造福着金融界。同样,因为针对性数据库、软件和算法的出现,对金融领域的数据进行储存、拆解和分析变得更便宜。由于数字化程度和云服务应用程度的提高,可用于学习和预测的数据集数量也出现了快速增长。数据存储成本的下降和全球数据量的估计如图 3 所示。




那些推动了搜索引擎和自动驾驶领域的算法进步的工具也可以在金融领域使用。例如,物体识别工具使搜索引擎能够了解,用户搜索「Ford」的时候通常指的是「福特汽车」而不是「河滩」。这种工具现在也被用于快速识别特定上市公司的新闻或社交媒体消息。随着越来越多的公司使用这些工具,公司获取新数据或额外数据以开发更快、更准确的人工智能和机器学习工具的激励可能会增加。反过来,公司对工具的使用和开发也可能影响到其他公司的激励水平。


金融部门的各种技术发展促进了基础设施和相关数据集的创建。电子交易平台的快速发展伴随着高质量结构化数据可得性的提升。在一些国家(如美国),市场监管机构允许上市公司使用社交媒体发布公告。除了为机器学习提供数字化的财务数据之外,市场的电子化也使人工智能能够直接与市场交互,完成由复杂的决策程序给出的让人眼花缭乱的实时买入和卖出指令,且几乎不需要人为干预。同时,自 20 世纪 80 年代起,个人信用评分系统变得越来越普遍,自 20 世纪 90 年代起,新闻已经变得机器可读。随着金融市场数据和相关数据集的增长——例如在线搜索趋势、收视模式和包含市场及消费者财务信息的社交媒体数据集的增长——金融部门可以探索和挖掘的数据如今来自极为丰富的数据源。


在需求方面,金融机构有激励去使用人工智能和机器学习来满足业务需求。降低成本、获得风险管理收益和提高生产力的机会促进了对技术的应用,因为这些机会都可以提高盈利能力。在最近的一项研究中,业内人士称(在各功能部门中)使用人工智能和机器学习的优先级如下:以客户为中心优化流程;增加系统与员工之间的互动并加强决策能力;开发提供给客户的新产品与新服务。在许多情况下,这些因素也可能推动公司间的「军备竞赛」,市场参与者会因为急需跟上竞争对手的脚步而应用人工智能和机器学习,包括因为声誉(炒作)原因。


新的合规要求也产生了一些需求。新合规要求增加了对效率的要求,这促使银行推动自动化进程并应用新的分析工具,包括含有人工智能和机器学习的工具。金融机构正在寻求遵循审慎性监管、数据报告、交易执行优化以及反洗钱和打击资助恐怖主义(AML/CFT)等监管要求的高效手段。相应地,监管机构也面临着评估更大、更复杂、增长更迅速的数据集的责任,需要用更强大的分析工具来更好地监控金融部门。图 4 显示了这些供给和需求因素如何结合在一起。




一些发展趋势可能会影响未来人工智能和机器学习的推广。这些发展趋势包括数据来源数量和数据获取的实时性的不断提高;数据仓体量、数据粒度、数据类型的增加以及数据质量的提高。硬件的持续改进,以及包括开源库在内的人工智能和机器学习软件即服务(SaaS)也将影响创新的过程。包括处理芯片和量子计算在内的硬件开发旨在实现实现更快、更强大的人工智能。这些发展可以使愈发强大的人工智能和机器学习工具适用范围愈发广阔、成本也更加低廉。他们可以在更大的数据集上实现更复杂的实时数据分析,如对在线用户行为或者位于世界各地的物联网(IoT)传感器数据的实时分析。


与此同时,复杂软件服务的可得范围也不断变大。其中一类软件服务是在过去几年中涌现的开源库,它们为研究人员提供了使用机器学习的现成工具。也有越来越多的供应商为金融市场参与者提供机器学习服务。一些公司抓取新闻和/或元数据,并使用户能够根据他们感兴趣的特定特征(例如浏览过的网页等)进行预测。随着进行数据提供、清理、组织和分析并获得金融角度洞察的服务越来越多,用户进行复杂分析的成本会显著下降。然而与此同时,同信息/同技术的多用户风险可能也会随之增加(见第 4 部分)。


相关数据的法律框架也可能会影响人工智能和机器学习工具的应用。违反协议使用个人数据或使用不符合消费者利益的数据可能会导致数据保护立法的激增。此外,新的数据标准、新的数据报告要求或金融服务领域的其他制度性变化也可能会影响人工智能和机器学习在特定市场的应用。


关注账号「机器之能:almosthuman2017」并回复「FSB」获取精编版中文报告。


]]> 原文: http://ift.tt/2AnEbkn
RSS Feed

机器知心

IFTTT

Waymo全自动驾驶汽车上路测试,不久后你可以租辆无人车通勤、跑腿儿了

编译 | Rik R

编辑 | 吴欣

来源 | The Verge


「全自动驾驶汽车在这里。」Waymo 的 CEO John Krafcik说。


昨天,他在里斯本召开的一个技术会议上透露,十月中旬以来,公司一直在亚利桑那州的公共道路上测试其自动驾驶汽车,关键是,测试全程都没有人类陪驾。


这家隶属于谷歌母公司 Alphabet 的自动驾驶汽车公司,正用实际行动,传递对其工程师团队在过去八年取得技术结晶的信心,同时也想给业界其他玩家一个下马威,因为这些竞争者的终极目标都集中在 4 级(最高为 4 级) 自主性,也就是车辆能够在大多数环境和道路条件下实现无人陪驾的全自动驾驶。


无人陪驾的汽车上路了


Krafcik 称,「这是迄今为止我们所开发的最先进的车辆」。


「车内所有东西都是为实现完全自动化而设计和建造的。强大的传感器组件为汽车周身提供了 360 度的视角。激光器能够以三维视角观察物体,其视线可达 300 米远。我们也有短距离激光器用于聚焦车辆侧面近景,那些雷达可以看到汽车的下方和周围,追踪一些通常处于人眼盲区的运动目标。」他进一步介绍。




不过,目前为止,在亚利桑那州的道路上,这些汽车的行驶并不是完全自由的,它们被限定在位于菲尼克斯郊区 Chandler 镇上一个 100 平方英里的区域内。虽然 Waymo 称其计划扩大测试区域的范围以收集更多数据、行驶更多里程。而这些汽车也并非对任何想去兜风的人开放,Waymo 的 Early Rider 项目成员将率先体验这一新技术,该项目自去年四月以来便已在 Chandler 镇投入运作。


从谷歌剥离后的一年来,Waymo 积极投入到公共道路的自驾车测试中。该公司在公共道路上测试自驾车的时间比一般技术公司和汽车公司都要长,而且它有机会接触到谷歌的机械工程人才,其实力足以与拥有数十年汽车制造经验的公司相抗衡。


另一方面,Waymo 也并非单打独斗,它迅速建立了自己的「朋友圈」,其中包括菲亚特·克莱斯勒、Lyft 和 Avis 。与此同时,为了减少对供应商的依赖,它在制造自己的传感器和硬件方面也毫不含糊。在前述的演讲中,Krafcik 列举了 Waymo 优于其竞争对手的诸多优点。


Chandler 镇当地政府也留意到 Waymo 无人驾驶汽车方面的信息,并且似乎对这场实验所带来的热度(和监督)感到很高兴。「 Waymo 在 Chandler 的研究工作是开创性的,他们正朝着全自动驾驶汽车的目标努力,」Chandler 镇长 Jay Tibshraeny 说,「与此同时,我们的社区将受益于这一技术的研究与开发,我们的道路将变得更加安全,而那些无法开车的人将获得一种自由行动的新方式。」


Waymo 的下一个目标:共享租赁


毫无疑问,Waymo 对业务模式的选择至关重要:提供移动性的租赁服务,乘客可以随时随地通过一个 App(比如 Uber 或 Lyft)来呼叫该公司旗下的一辆小型自动驾驶面包车。「人们可以使用我们的按需服务车队做任何事情,通勤、晚归或跑腿儿,」Krafcik 说到。


但仍有一些政策法规还存在问题。由于 Waymo 是在亚利桑那州测试其自驾车,而当地几乎没有自驾测试方面的法律法规,因此其车辆测试进度报告会非常片面。与另一个自驾测试热土加州不同,亚利桑那州不要求公司公开披露其自驾汽车的测试事故,也不要求公开人类司机被迫干涉无人驾驶汽车的次数。


顾名思义,无人驾驶汽车当然得脱离人类司机的干涉。(该公司发往加州的最新报告表明,谷歌在脱离人类陪驾方面进展很快。)Waymo 最近发布了一份长达 41 页、印刷精美的安全报告,详细说明了其自驾车的测试方法,涉及 350 万英里的公共道路测试和 25 亿英里的仿真测试。这份报告还为该公司赢得了美国运输部部长 Elaine Chao 的称赞。


Chao 的部门正在修订其官方发布的自动驾驶汽车指南,试图把公共汽车和卡车也囊括进来,其中卡车也是 Waymo 的研究对象。而国会正在权衡立法,以使自驾车公司有足够的自由度来推进相关的部署、测试和商业化。


大多数公司打算谨慎行事,因为他们认识到大多数人对于自驾技术仍持怀疑态度或并非完全信任。他们称计划最晚将在 2020 年之前脱离陪驾。但不包括 Waymo。


]]> 原文: http://ift.tt/2hUfk13
RSS Feed

机器知心

IFTTT

又一员大将离开马斯克的OpenAI自立门户,称工业机器人市场大有可为

编译 | 陈韵竹

编辑 | 吴欣

来源 | 纽约时报


继生成对抗网络(GANs)发明人 Ian Goodfellow、机器学习专家 Andrej Karpathy 在今年陆续离开 OpenAI 之后,来自比利时的 Pieter Abbeel 也辞职创业了。他在强化学习领域颇有建树,去年 4 月加入 OpenAI 之前,他是加州伯克利大学教授,长期深入在人工智能领域的研究工作。


OpenAI ,是一个独立运营的人工智能非营利性组织,由于发起人包括特斯拉首席执行官 Elon Musk 和其他硅谷著名人士,而备受关注。与 Abbeel 一起创业的,还有 OpenAI 另外两位研究人员—— Peter Chen、Rocky Duan,以及前微软研究人员 Tianhao Zhang。



这家新公司正努力地教机器人自学,以摆脱计算机程序的控制。(由左至右依次是 Embodied Intelligence CEO Peter Chen、董事长兼首席科学家 Pieter Abbeel、CTO Rocky Duan、研究员 Tianhao Zhang)


他们创办的这家公司名为 Embodied Intelligence ,专注于研究让机器人能够自主学习完成任务的复杂算法,想要让机器人通过人工智能技术学习,把自动化技术应用到世界范围内的工厂、仓库、甚至是家庭中。


例如,它们可以学会安装那些它们不曾安装过的汽车零件,或是在仓库场景下给甚至不曾见过的节日礼物分类,或是执行传统机器所不能执行的任务。


目前,该公司已经获得来自硅谷风险投资公司 Amplify Partners 以及其他资方的共 700 万美元投资。「现在,工业机器人的每一个动作都被规定得精准到了毫米量级。但是,大多数的现实问题其实不能用这种方法解决。你不仅要告诉机器人该做什么,而且要告诉它怎么学习。」不难看出,Amplify Partners 创始人 Sunil Dhaliwal 认同并期待 Embodied Intelligence 带来新方法。


「这主要是一个计算机科学的问题——一个人工智能的问题,」Abbeel 说道,「我们已经有了可以完成工作的硬件。」值得一提的是, 在这个泛人工智能领域,谷歌公司、布朗大学、卡内基梅隆大学,以及 Micropsi、 Prowler.io 等新兴创业公司的研究者们也在做类似工作。


上述观点成为 Abbeel 在加州大学伯克利分校的演讲主题,他播放了一段机器人做家务的录像带。在这段录制于 2008 年的视频中,机器人已经能够完成诸如扫地、清理橱柜、安装洗碗机等任务。最后,它甚至打开了一罐啤酒,递给了坐在沙发上的小伙子。只不过在当时,这一切都要被一个工程师远程操控着,由人来决定机器人的每一个动作。


Abbeel 想用这个视频告诉人们,机器人的硬件系统已经足够灵活,能完成模仿人类的大部分复杂行为。而真正的挑战在于,它需要一种能够指导硬件行为的软件,而不是依赖于工程师的操控。




的确,大量机器人已经在承担工厂和仓库中的部分自动化工作。例如,机器人能在亚马逊公司庞大的配送中心里移动箱子。但目前完成这些工作的前提是,公司必须为这些机器的每一个具体工作进行编程。


毫无疑问,只有在这些机器人通过自学掌握更多任务处理方法时,才可能挖掘出其他可能的应用。而 Abbeel 的创始团队正在研究一种被称为强化学习的算法,这种算法让机器人通过反复不断的尝试和试错中学习如何执行任务。在《纽约时报》采访中,他说:「我们现在研发出了可教的机器人。」


谷歌旗下人工智能实验室 DeepMind 的做法也说明了其中道理,他们的研究员使用强化学习方法建立了 Alpha Go,打败了所有人类围棋玩家。从本质上说,这个机器就是通过一次又一次的自我博弈掌握了这个极其复杂的游戏。


工业界和学术界的其他研究人员表示,类似的算法同样可以让机器人学习处理与行动相关的任务。例如,通过反复尝试打开一扇门,一个机器人能够学到哪些特定的动作能够成功将门打开,而哪些动作不能。


类似于谷歌实验室和西北大学实验室,Embodied Intelligence 正在使用多种其他机器学习技术强化这些算法。最值得注意的是,这个创业公司正在探索一种称为模仿学习(Imitation Learning)的学习方式。相较于传统的强化学习任务,模仿学习在机器人、自然语言处理等多步决策问题中有更好的表现。




公司正在使用这种方法,训练一个两臂机器人从桌上拾起塑料管。Abbeel 和他的同事们戴着 VR 头显,拿着动作追踪器,不断地在数字世界中向机器人展示如何完成任务。然后,机器人可以从这些数据中学习。


「我们收集了人类工作时的数据,」Peter Chen 说,「然后,我们就可以训练机器模仿人类。」


尽管这些机器学习方法在过去几年刚刚取得一些成果,让很多人相信,它们将会彻底改变机器人领域。但也有不少研究者质疑,机器学习对机器人领域的改善作用到底有多大,他们认为,研究者和新闻媒体对此吹捧过度。


不过,作为该领域世界顶尖研究者之一,Abbeel 相信自己的创业公司能够迅速地将人工智能技术推广到像汽车工业这样的制造业中去。而那些机器人领域使用传统方法仍没能解决的问题,恰好是 Embodied Intelligence 想要攻克的方向。


毕竟机器学习先驱 Geoff Hinton 也曾说:「很明显,机器学习对于建立灵活、机敏的机器人至关重要。」


]]> 原文: http://ift.tt/2AwqfFQ
RSS Feed

机器知心

IFTTT

2017年11月7日星期二

如何使用TensorFlow和VAE模型生成手写数字

本文详细介绍了如何使用 TensorFlow 实现变分自编码器(VAE)模型,并通过简单的手写数字生成案例一步步引导读者实现这一强大的生成模型。


全部 VAE 代码:http://ift.tt/2j7mq5A


自编码器是一种能够用来学习对输入数据高效编码的神经网络。若给定一些输入,神经网络首先会使用一系列的变换来将数据映射到低维空间,这部分神经网络就被称为编码器。


然后,网络会使用被编码的低维数据去尝试重建输入,这部分网络称之为解码器。我们可以使用编码器将数据压缩为神经网络可以理解的类型。然而自编码器很少用做这个目的,因为通常存在比它更为有效的手工编写的算法(例如 jpg 压缩)。

此外,自编码器还被经常用来执行降噪任务,它能够学会如何重建原始图像。


什么是变分自编码器?


有很多与自编码器相关的有趣应用。其中之一被称为变分自编码器(variational autoencoder)。使用变分自编码器不仅可以压缩数据--还能生成自编码器曾经遇到过的新对象。


使用通用自编码器的时候,我们根本不知道网络所生成的编码具体是什么。虽然我们可以对比不同的编码对象,但是要理解它内部编码的方式几乎是不可能的。这也就意味着我们不能使用编码器来生成新的对象。我们甚至连输入应该是什么样子的都不知道。

而我们用相反的方法使用变分自编码器。我们不会尝试着去关注隐含向量所服从的分布,只需要告诉网络我们想让这个分布转换为什么样子就行了。


通常情况,我们会限制网络来生成具有单位正态分布性质的隐含向量。然后,在尝试生成数据的时候,我们只需要从这种分布中进行采样,然后把样本喂给解码器就行,解码器会返回新的对象,看上去就和我们用来训练网络的对象一样。

下面我们将介绍如何使用 Python 和 TensorFlow 实现这一过程,我们要教会我们的网络来画 MNIST 字符。


第一步加载训练数据


首先我们来执行一些基本的导入操作。TensorFlow 具有非常便利的函数来让我们能够很容易地访问 MNIST 数据集。


import tensorflow as tfimport numpy as npimport matplotlib.pyplot as plt %matplotlib inlinefrom tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets('MNIST_data')

定义输入数据和输出数据


MNIST 图像的维度是 28*28 像素,只有单色通道。我们的输入数据 X_in 是一批一批的 MNIST 字符,网络会学习如何重建它们。然后在一个占位符 Y 中输出它们,输出和输入具有相同的维度。


Y_flat 将会在后面计算损失函数的时候用到,keep_prob 将会在应用 dropout 的时候用到(作为一种正则化的方法)。在训练的过程中,它的值会设为 0.8,当生成新数据的时候,我们不使用 dropout,所以它的值会变成 1。


lrelu 函数需要自及定义,因为 TensorFlow 中并没有预定义一个 Leaky ReLU 函数。


tf.reset_default_graph()  batch_size = 64X_in = tf.placeholder(dtype=tf.float32, shape=[None, 28, 28], name='X') Y    = tf.placeholder(dtype=tf.float32, shape=[None, 28, 28], name='Y') Y_flat = tf.reshape(Y, shape=[-1, 28 * 28]) keep_prob = tf.placeholder(dtype=tf.float32, shape=(), name='keep_prob')  dec_in_channels = 1n_latent = 8reshaped_dim = [-1, 7, 7, dec_in_channels] inputs_decoder = 49 * dec_in_channels / 2def lrelu(x, alpha=0.3):    return tf.maximum(x, tf.multiply(x, alpha))


定义编码器


因为我们的输入是图像,所以使用一些卷积变换会更加合理。最值得注意的是我们在编码器中创建了两个向量,因为编码器应该创建服从高斯分布的对象。

  • 一个是均值向量
  • 一个是标准差向量

在后面你会看到,我们是如何「强制」编码器来保证它确实生成 了服从正态分布的数据点,我们可以把将会被输入到解码器中的编码值表示为 z。在计算损失函数的时候,我们会需要我们所选分布的均值和标准差。


def encoder(X_in, keep_prob):     activation = lrelu    with tf.variable_scope("encoder", reuse=None):         X = tf.reshape(X_in, shape=[-1, 28, 28, 1])         x = tf.layers.conv2d(X, filters=64, kernel_size=4, strides=2, padding='same', activation=activation)         x = tf.nn.dropout(x, keep_prob)         x = tf.layers.conv2d(x, filters=64, kernel_size=4, strides=2, padding='same', activation=activation)         x = tf.nn.dropout(x, keep_prob)         x = tf.layers.conv2d(x, filters=64, kernel_size=4, strides=1, padding='same', activation=activation)         x = tf.nn.dropout(x, keep_prob)         x = tf.contrib.layers.flatten(x)         mn = tf.layers.dense(x, units=n_latent)         sd       = 0.5 * tf.layers.dense(x, units=n_latent)                     epsilon = tf.random_normal(tf.stack([tf.shape(x)[0], n_latent]))          z  = mn + tf.multiply(epsilon, tf.exp(sd))                 return z, mn, sd


定义解码器


解码器不会关心输入值是不是从我们定义的某个特定分布中采样得到的。它仅仅会尝试重建输入图像。最后,我们使用了一系列的转置卷积(transpose convolution)。


def decoder(sampled_z, keep_prob):    with tf.variable_scope("decoder", reuse=None):         x = tf.layers.dense(sampled_z, units=inputs_decoder, activation=lrelu)         x = tf.layers.dense(x, units=inputs_decoder * 2 + 1, activation=lrelu)         x = tf.reshape(x, reshaped_dim)         x = tf.layers.conv2d_transpose(x, filters=64, kernel_size=4, strides=2, padding='same', activation=tf.nn.relu)         x = tf.nn.dropout(x, keep_prob)         x = tf.layers.conv2d_transpose(x, filters=64, kernel_size=4, strides=1, padding='same', activation=tf.nn.relu)         x = tf.nn.dropout(x, keep_prob)         x = tf.layers.conv2d_transpose(x, filters=64, kernel_size=4, strides=1, padding='same', activation=tf.nn.relu)                  x = tf.contrib.layers.flatten(x)         x = tf.layers.dense(x, units=28*28, activation=tf.nn.sigmoid)         img = tf.reshape(x, shape=[-1, 28, 28])        return img


现在,我们将两部分连在一起。


sampled, mn, sd = encoder(X_in, keep_prob) dec = decoder(sampled, keep_prob)


计算损失函数,并实施一个高斯隐藏分布


为了计算图像重构的损失函数,我们简单地使用了平方差(这有时候会使图像变得有些模糊)。这个损失函数还结合了 KL 散度,这确保了我们的隐藏值将会从一个标准分布中采样。关于这个主题,如果想要了解更多,可以看一下这篇文章(http://ift.tt/2AsndlK


unreshaped = tf.reshape(dec, [-1, 28*28]) img_loss = tf.reduce_sum(tf.squared_difference(unreshaped, Y_flat), 1) latent_loss = -0.5 * tf.reduce_sum(1.0 + 2.0 * sd - tf.square(mn) - tf.exp(2.0 * sd), 1) loss = tf.reduce_mean(img_loss + latent_loss) optimizer = tf.train.AdamOptimizer(0.0005).minimize(loss) sess = tf.Session() sess.run(tf.global_variables_initializer())

训练网络


现在我们终于可以训练我们的 VAE 了!


每隔 200 步,我们会看一下当前的重建是什么样子的。大约在处理了 2000 次迭代后,大多数重建看上去是挺合理的。


for i in range(30000):     batch = [np.reshape(b, [28, 28]) for b in mnist.train.next_batch(batch_size=batch_size)[0]]     sess.run(optimizer, feed_dict = {X_in: batch, Y: batch, keep_prob: 0.8})             if not i % 200:         ls, d, i_ls, d_ls, mu, sigm = sess.run([loss, dec, img_loss, dst_loss, mn, sd], feed_dict = {X_in: batch, Y: batch, keep_prob: 1.0})         plt.imshow(np.reshape(batch[0], [28, 28]), cmap='gray')         plt.show()         plt.imshow(d[0], cmap='gray')         plt.show()         print(i, ls, np.mean(i_ls), np.mean(d_ls))


生成新数据


最惊人的是我们现在可以生成新的字符了。最后,我们仅仅是从一个单位正态分布里面采集了一个值,输入到解码器。生成的大多数字符都和人类手写的是一样的。


randoms = [np.random.normal(0, 1, n_latent) for _ in range(10)] imgs = sess.run(dec, feed_dict = {sampled: randoms, keep_prob: 1.0}) imgs = [np.reshape(imgs[i], [28, 28]) for i in range(len(imgs))]for img in imgs:     plt.figure(figsize=(1,1))     plt.axis('off')     plt.imshow(img, cmap='gray')


一些自动生成的字符。


总结


这是关于 VAE 应用一个相当简单的例子。但是可以想象一下更多的可能性!神经网络可以学习谱写音乐,它们可以自动地创建对书籍、游戏的描述。借用创新思维,VAE 可以为一些新颖的项目开创空间。


原文链接:http://ift.tt/2z1XoeO



]]> 原文: http://ift.tt/2jbjvcl
RSS Feed

机器知心

IFTTT

M2 模型杀回 Coding 和 Agent 领域,MiniMax 想要「普惠智能」-InfoQ每周精要No.900

「每周精要」 NO. 900 2025/11/01 头条 HEADLINE M2 模型杀回 Coding 和 Agent 领域,MiniMax 想要「普惠智能」 精选 SELECTED a16z 将 3000 万开发者标价 3 万亿 网友:几个初创公司 + 大模型就...