2017年11月5日星期日

集智 机器学习基础班(线下班)绝不包就业班

性质:非就业班,救不了业,培养基础。

地址:北京市海淀区善缘街1号立方庭

日期:11月11日起的双休日,共计10天,每天6小时左右,持续五周,每周留有课堂作业。

人数:8人(目前已经6人)

学员编号:001-008 Basic 一期 顺利通过所有课程者,发身份铭牌+结业证书

助教阵容:清华本科团队。

授课团队及内容:

北大博士、人大博士、中科院博士,海外双学位本硕,某AI比赛世界冠军等。(隐去姓名)

形式:线下班。基础知识+每周作业+课后答疑+助教团队+四场AI一线公司创始人/工程师/HR主管讲座。

费用:11月8号前报名,享受折扣价2499元,9号前报名享受折扣价3999元。(不讲价,座位付费预定即无,不退款)报名时会简单咨询背景和编程经验。

信息扩散优惠:转发下图到你的朋友圈,扫码添加客服微信+发送截图给客服,可免费获得一门巨难课程《深度学习的理论基础》。



via 集智 - 知乎专栏 http://ift.tt/2hjes8Z
RSS Feed

RSS7

IFTTT

启封AI,见证时代,2017全球人工智能企业家论坛大幕拉开!


你是否了解NVIDIA的雄心?GPU如何鼎力支撑高维的AI世界?


L2L3还是直接跃迁到L4L5?自动驾驶的秘密一站揭晓!


千亿美元争夺战,AI巨头为何在语音交互市场抢夺赛道?


被AI赋能后的云计算该有多强大,你是否想了解一个异彩纷呈的AI+云的世界?


从医疗图像分析到临床诊断系统的颠覆,AI如何成就医疗行业变局?


从金融风险监测到革新的支付方式,全新方式深入探讨金融市场的AI变革。


震撼的机器人与无人机的最新解决方案。


惊爆眼球的视觉技术,智能安防,AI城市。


一切尽在,全球人工智能企业家论坛!


专为企业家举办的人工智能论坛,国家战略、企业对策、荣辱成败、何去何从?


11月17日-18日,AICE2017全球人工智能企业家论坛大幕拉开!

 

为了深度解读AI人工智能的行业脉搏,解构各行业企业以及全世界如何面对AI巨变的时代命题,全球顶尖的AI学者、研究机构代表、AI创新企业核心人物、投资机构代表和中国的AI研究者、创新创业企业将于2017年11月17日至18日齐聚北京,出席全球人工智能企业家论坛(AICE2017),共同探讨企业如何面对和拥抱人工智能时代,为各界企业家讲解人工智能的热门问题,帮助企业家从全球化的视角,对各行各业在AI时代将会出现的变革和前景进行深度剖析。

 

 首届全球人工智能企业家论坛(AICE2017),由中国人工智能学会(以下简称CAAI)联合中国顶级的技术社区开源中国(以下简称OSC)及CSDN共同举办,本次论坛将于2017年11月17日至18日在北京国际饭店会议中心举办,论坛聚焦AI人工智能大产业,是一次兼具实用性与前瞻性的盛会。论坛将邀请来自全球的AI学者、教育研究机构、行业代表和创投机构等顶级的研究人才与业界权威,与来自全球的2000名知名企业领袖一起,从学术、企业/行业、资本三个维度,围绕人工智能前沿科学研究进展、技术发展趋势、产业应用机会和企业战略研究等方面的议题,进行深入交流与探讨。

 

 此次AICE2017将进行两天,包括2个主论坛演讲和10个专题论坛研讨,论坛期间还有为期两天的全球人工智能前沿科技展览,共同勾勒出人工智能发展的现状和未来。

 

本次AICE2017论坛具有以下几个主要亮点:


一、论坛聚集行业精英,参与人数众多、规模庞大,论坛规格极高


本次论坛规模庞大,盛况空前,AI行业内的大咖云集,知名的专家学者、精英企业家纷纷参与。本次论坛参会企业家代表将达到2000人,是一次针对企业AI应用规模宏大,影响巨大的盛会。

 

出席本次论坛的嘉宾包括但不限于:现任国际人工智能联合会理事会主席、香港科技大学计算机科学和工程学系主任、大数据研究所所长杨强,中国人工智能学会理事长、中国工程院院士李德毅,中国人工智能泰斗、哈尔滨工业大学前党委书记、哈工大语言语音重点实验室主任李生,英伟达公司全球副总裁潘迪,SAP全球高级副总裁、SAP中国研究院院长李瑞成,可穿戴机器人协会主席、美国军事学院的机械工程研究中心的主任、国防高级研究项目局(DARPA)机器人项目负责人Joseph K. Hitt,德国汉堡大学信息学科学系教授、多模态技术研究所所长、德国汉堡科学院院士、人工智能专家轮值主席、国家千人计划专家张建伟,阿里巴巴集团合伙人、阿里云(位列全球云计算市场前三)总裁胡晓明等数十位人工智能领域的大德名宿、技术领军人、商用实战专家,全面解读AI领域的技术研究成果和实践应用情况。本次论坛无论是参会人员的水准和知名度,还是参会人员的规模,都超过了此前任何类似论坛。

 

二、立足全球视角,通过实际应用案例领略技术实现,资源对接建构本地生态


本次论坛着眼于全球视野,以全球化的角度来看待AI人工智能的发展,同时针对AI的场景实现、应用落地、AI的本地生态建立等重点问题进行深入解析,共同探讨如何让先进的AI人工智能技术快速进行成果转化,真正为中国企业带来实际有效的增长。

 

三、论坛将引领培训体验,拓展行业实践


全球AI动力提供者NVIDIA公司将携手本次论坛,向中国企业和企业家们提供最直接的现场深度学习训练,让企业家们直接充分的亲身体验一下什么是深度学习,直接亲身感受深度学习是如何实现,会产生什么样惊人的结果。NVIDIA将带着企业家们亲身体验在AI的世界里的第一次飞翔!

 

四、与众不同的互动设计和超值的观众权益


论坛设计了全新的组织形式,广泛连接全面开放:


会前——会前提前和观众进行连接沟通,下发专业会刊和内参资料,论坛专属客户端支撑;参会指南、提问和建议;收集需求和观众问题;


会中——全部主论坛和分论坛内容通过会议客户端现场直播,实现身处一个会场,可以同时观看5个分会场;


会后——会议资料汇编,录像汇总,持续跟踪,专家资源对接。

 

再看观众权益里超值的内容和服务:

  • 赠送世界顶级的NVIDIA深度学习现场培训(价值1000美金);
  • 会前发布赠送专为本次论坛打造的一整套涵盖整体AI技术产品市场分析和涵盖九大应用方向的系统性行业分析报告;
  • 会中的所有论坛视频和会议资料将会完全保存发给每个参会企业家;
  • 会后做出详尽的全部论坛资料汇编再发给参会企业家;
  • 全面开放的嘉宾联络和资源企业对接;
  • 后续我们将安排企业和嘉宾对接,设计和组织企业顾问团。

 

 本次全球人工智能企业家论坛(AICE2017)将会是一场人工智能的顶级盛会,必将对AI人工智能技术的发展进步以及产业落地产生重大而深远的意义,对于各行各业的企业家这都是一场不能错过的盛会。

 

2017年11月17-18日,相约北京国际饭店,解封AI,见证时代,共谋大业,同赴未来!

 

附:NVIDIA深度培训介绍


NVIDIA 深度学习学院——深度学习的启蒙培训

 

热谈人工智能的应用和未来之余,您是否还想知道自己的企业要怎样开始行动,如何开启"深度学习"来解决行业问题,实现行业+AI,抢占制胜先机?为了帮助更多的人员和企业迈入人工智能之路,英伟达深度学习学院 (NVIDIA Deep Learning Institute,简称DLI) 在全球教授"深度学习"培训课程。基于最新的AI framework、深度学习软件和GPU技术,学员可以亲自动手实践深度学习的完整工作流程,完成某项应用任务,从而探索解决行业问题的思路和能力。

 

值此AICE2017举办之际,DLI 面向广大企业技术负责人,开设深度学习零基础入门课。如欲了解更多课程,请访问www.nvidia.cn/DLI


日程


第一部分  深度学习揭秘和应用  时长:1小时

第二部分  无需写代码,用开源软件DIGITS实现图像分类  时长:2小时


课程介绍:


l   深度学习揭秘和应用


级别:初级 | 预备知识:无



行业:所有 | Frameworks: Caffe, Theano, Torch


此实验室将介绍快速发展的 GPU 加速深度学习技术。本课程专为想要学习深度学习基础知识的学员而设计。您将学习:


*     深度学习的概念

*     深度学习的发展将如何增强机器感知任务,包括视觉感知和自然语言的能力

*     如何选择最适合您需求的软件框架


完成此实验室后,您会对加速深度学习有基本的理解。

 

l   无需写代码,用开源软件DIGITS实现图像分类


级别:初级 | 预备知识:无 行业:所有 | Frameworks: Caffe


此实验室会向您展示如何通过在 Caffe 框架上的 NVIDIA DIGITS 和MNIST 手写数据集,在深度学习工作流程中利用深度神经网络 (DNN), 尤其是卷积神经网络 (CNN) 解决真实图像分类问题,您会学到:


*       构建运行在GPU上的深度神经网络

*       管理数据准备、模型定义、模型训练和问题排查过程

*       使用验证数据来测试和尝试不同策略来提升模型性能


完成此实验室后,您将能够使用 NVIDIA DIGITS 来构建、训练、评估和提升您的图像分类应用程序中卷积神经网络的准确性。

 

 

课前准备:


l   开通英伟达深度学习学院 (NVIDIA Deep Learning Institute,简称DLI)课程实验网站账户:在http://ift.tt/1qxBfx6 上注册账号。


l   携带电脑参加培训,且需安装有 IE 10 (或以上版本), 或者 Chrome 59 (或以上版本) 浏览器。

 


]]> 原文: http://ift.tt/2zlUalU
RSS Feed

机器知心

IFTTT

TensorFlow全新的数据读取方式:Dataset API入门教程

Dataset API是TensorFlow 1.3版本中引入的一个新的模块,主要服务于数据读取,构建输入数据的pipeline。

此前,在TensorFlow中读取数据一般有两种方法:

相比这两种方法,Dataset API同时支持从内存和硬盘的读取,语法也更加简洁易懂。此外,如果想要用到TensorFlow新出的Eager模式,也必须使用Dataset API来读取数据。

本文就来为大家详细地介绍一下Dataset API的使用(包括在非Eager模式和Eager模式下两种使用方法)。

Dataset API的导入

在TensorFlow 1.3中,Dataset API是放在contrib包中的:

tf.contrib.data.Dataset

而在TensorFlow 1.4中,Dataset API已经从contrib包中移除,变成了核心API的一员:

tf.data.Dataset

下面的示例代码将以TensorFlow 1.4版本为例,如果使用TensorFlow 1.3的话,需要进行简单的修改(即加上contrib)。

基本概念:Dataset与Iterator

让我们从基础的类来了解Dataset API。参考Google官方给出的Dataset API中的类图:

在初学时,我们只需要关注两个最重要的基础类:Dataset和Iterator

Dataset可以看作是相同类型"元素"的有序列表。在实际使用时,单个"元素"可以是向量,也可以是字符串、图片,甚至是tuple或者dict。

先以最简单的,Dataset的每一个元素是一个数字为例

import tensorflow as tf import numpy as np  dataset = tf.data.Dataset.from_tensor_slices(np.array([1.0, 2.0, 3.0, 4.0, 5.0]))

这样,我们就创建了一个dataset,这个dataset中含有5个元素,分别是1.0, 2.0, 3.0, 4.0, 5.0。

如何将这个dataset中的元素取出呢?方法是从Dataset中示例化一个Iterator,然后对Iterator进行迭代。

在非Eager模式下,读取上述dataset中元素的方法为:

iterator = dataset.make_one_shot_iterator() one_element = iterator.get_next() with tf.Session() as sess:     for i in range(5):         print(sess.run(one_element))

对应的输出结果应该就是从1.0到5.0。语句iterator = dataset.make_one_shot_iterator()从dataset中实例化了一个Iterator,这个Iterator是一个"one shot iterator",即只能从头到尾读取一次。one_element = iterator.get_next()表示从iterator里取出一个元素。由于这是非Eager模式,所以one_elemnet只是一个Tensor,并不是一个实际的值。调用sess.run(one_element)后,才能真正地取出一个值。

如果一个dataset中元素被读取完了,再尝试sess.run(one_element)的话,就会抛出tf.errors.OutOfRangeError异常,这个行为与使用队列方式读取数据的行为是一致的。在实际程序中,可以在外界捕捉这个异常以判断数据是否读取完,请参考下面的代码:

dataset = tf.data.Dataset.from_tensor_slices(np.array([1.0, 2.0, 3.0, 4.0, 5.0])) iterator = dataset.make_one_shot_iterator() one_element = iterator.get_next() with tf.Session() as sess:     try:         while True:             print(sess.run(one_element))     except tf.errors.OutOfRangeError:         print("end!")

在Eager模式中,创建Iterator的方式有所不同。是通过tfe.Iterator(dataset)的形式直接创建Iterator并迭代。迭代时可以直接取出值,不需要使用sess.run():

import tensorflow.contrib.eager as tfe tfe.enable_eager_execution()  dataset = tf.data.Dataset.from_tensor_slices(np.array([1.0, 2.0, 3.0, 4.0, 5.0]))  for one_element in tfe.Iterator(dataset):     print(one_element)

从内存中创建更复杂的Dataset

之前我们用tf.data.Dataset.from_tensor_slices创建了一个最简单的Dataset:

dataset = tf.data.Dataset.from_tensor_slices(np.array([1.0, 2.0, 3.0, 4.0, 5.0]))

其实,tf.data.Dataset.from_tensor_slices的功能不止如此,它的真正作用是切分传入Tensor的第一个维度,生成相应的dataset。

例如:

dataset = tf.data.Dataset.from_tensor_slices(np.random.uniform(size=(5, 2)))

传入的数值是一个矩阵,它的形状为(5, 2),tf.data.Dataset.from_tensor_slices就会切分它形状上的第一个维度,最后生成的dataset中一个含有5个元素,每个元素的形状是(2, ),即每个元素是矩阵的一行。

在实际使用中,我们可能还希望Dataset中的每个元素具有更复杂的形式,如每个元素是一个Python中的元组,或是Python中的词典。例如,在图像识别问题中,一个元素可以是{"image": image_tensor, "label": label_tensor}的形式,这样处理起来更方便。

tf.data.Dataset.from_tensor_slices同样支持创建这种dataset,例如我们可以让每一个元素是一个词典:

dataset = tf.data.Dataset.from_tensor_slices(     {         "a": np.array([1.0, 2.0, 3.0, 4.0, 5.0]),                                                "b": np.random.uniform(size=(5, 2))     } )

这时函数会分别切分"a"中的数值以及"b"中的数值,最终dataset中的一个元素就是类似于{"a": 1.0, "b": [0.9, 0.1]}的形式。

利用tf.data.Dataset.from_tensor_slices创建每个元素是一个tuple的dataset也是可以的:

dataset = tf.data.Dataset.from_tensor_slices(   (np.array([1.0, 2.0, 3.0, 4.0, 5.0]), np.random.uniform(size=(5, 2))) )

对Dataset中的元素做变换:Transformation

Dataset支持一类特殊的操作:Transformation。一个Dataset通过Transformation变成一个新的Dataset。通常我们可以通过Transformation完成数据变换,打乱,组成batch,生成epoch等一系列操作。

常用的Transformation有:

  • map
  • batch
  • shuffle
  • repeat

下面就分别进行介绍。

(1)map

map接收一个函数,Dataset中的每个元素都会被当作这个函数的输入,并将函数返回值作为新的Dataset,如我们可以对dataset中每个元素的值加1:

dataset = tf.data.Dataset.from_tensor_slices(np.array([1.0, 2.0, 3.0, 4.0, 5.0])) dataset = dataset.map(lambda x: x + 1) # 2.0, 3.0, 4.0, 5.0, 6.0

(2)batch

batch就是将多个元素组合成batch,如下面的程序将dataset中的每个元素组成了大小为32的batch:

dataset = dataset.batch(32)

(3)shuffle

shuffle的功能为打乱dataset中的元素,它有一个参数buffersize,表示打乱时使用的buffer的大小:

dataset = dataset.shuffle(buffer_size=10000)

(4)repeat

repeat的功能就是将整个序列重复多次,主要用来处理机器学习中的epoch,假设原先的数据是一个epoch,使用repeat(5)就可以将之变成5个epoch:

dataset = dataset.repeat(5)

如果直接调用repeat()的话,生成的序列就会无限重复下去,没有结束,因此也不会抛出tf.errors.OutOfRangeError异常:

dataset = dataset.repeat()

例子:读入磁盘图片与对应label

讲到这里,我们可以来考虑一个简单,但同时也非常常用的例子:读入磁盘中的图片和图片相应的label,并将其打乱,组成batch_size=32的训练样本。在训练时重复10个epoch。

对应的程序为(从官方示例程序修改而来):

# 函数的功能时将filename对应的图片文件读进来,并缩放到统一的大小 def _parse_function(filename, label):   image_string = tf.read_file(filename)   image_decoded = tf.image.decode_image(image_string)   image_resized = tf.image.resize_images(image_decoded, [28, 28])   return image_resized, label  # 图片文件的列表 filenames = tf.constant(["/var/data/image1.jpg", "/var/data/image2.jpg", ...]) # label[i]就是图片filenames[i]的label labels = tf.constant([0, 37, ...])  # 此时dataset中的一个元素是(filename, label) dataset = tf.data.Dataset.from_tensor_slices((filenames, labels))  # 此时dataset中的一个元素是(image_resized, label) dataset = dataset.map(_parse_function)  # 此时dataset中的一个元素是(image_resized_batch, label_batch) dataset = dataset.shuffle(buffersize=1000).batch(32).repeat(10)

在这个过程中,dataset经历三次转变:

  • 运行dataset = tf.data.Dataset.from_tensor_slices((filenames, labels))后,dataset的一个元素是(filename, label)。filename是图片的文件名,label是图片对应的标签。
  • 之后通过map,将filename对应的图片读入,并缩放为28x28的大小。此时dataset中的一个元素是(image_resized, label)
  • 最后,dataset.shuffle(buffersize=1000).batch(32).repeat(10)的功能是:在每个epoch内将图片打乱组成大小为32的batch,并重复10次。最终,dataset中的一个元素是(image_resized_batch, label_batch),image_resized_batch的形状为(32, 28, 28),而label_batch的形状为(32, ),接下来我们就可以用这两个Tensor来建立模型了。

Dataset的其它创建方法....

除了tf.data.Dataset.from_tensor_slices外,目前Dataset API还提供了另外三种创建Dataset的方式:

  • tf.data.TextLineDataset():这个函数的输入是一个文件的列表,输出是一个dataset。dataset中的每一个元素就对应了文件中的一行。可以使用这个函数来读入CSV文件。
  • tf.data.FixedLengthRecordDataset():这个函数的输入是一个文件的列表和一个record_bytes,之后dataset的每一个元素就是文件中固定字节数record_bytes的内容。通常用来读取以二进制形式保存的文件,如CIFAR10数据集就是这种形式。
  • tf.data.TFRecordDataset():顾名思义,这个函数是用来读TFRecord文件的,dataset中的每一个元素就是一个TFExample。

它们的详细使用方法可以参阅文档:Module: tf.data

更多类型的Iterator....

在非Eager模式下,最简单的创建Iterator的方法就是通过dataset.make_one_shot_iterator()来创建一个one shot iterator。除了这种one shot iterator外,还有三个更复杂的Iterator,即:

  • initializable iterator
  • reinitializable iterator
  • feedable iterator

initializable iterator必须要在使用前通过sess.run()来初始化。使用initializable iterator,可以将placeholder代入Iterator中,这可以方便我们通过参数快速定义新的Iterator。一个简单的initializable iterator使用示例:

limit = tf.placeholder(dtype=tf.int32, shape=[])  dataset = tf.data.Dataset.from_tensor_slices(tf.range(start=0, limit=limit))  iterator = dataset.make_initializable_iterator() next_element = iterator.get_next()  with tf.Session() as sess:     sess.run(iterator.initializer, feed_dict={limit: 10})     for i in range(10):       value = sess.run(next_element)       assert i == value

此时的limit相当于一个"参数",它规定了Dataset中数的"上限"。

initializable iterator还有一个功能:读入较大的数组。

在使用tf.data.Dataset.from_tensor_slices(array)时,实际上发生的事情是将array作为一个tf.constants保存到了计算图中。当array很大时,会导致计算图变得很大,给传输、保存带来不便。这时,我们可以用一个placeholder取代这里的array,并使用initializable iterator,只在需要时将array传进去,这样就可以避免把大数组保存在图里,示例代码为(来自官方例程):

# 从硬盘中读入两个Numpy数组 with np.load("/var/data/training_data.npy") as data:   features = data["features"]   labels = data["labels"]  features_placeholder = tf.placeholder(features.dtype, features.shape) labels_placeholder = tf.placeholder(labels.dtype, labels.shape)  dataset = tf.data.Dataset.from_tensor_slices((features_placeholder, labels_placeholder)) iterator = dataset.make_initializable_iterator() sess.run(iterator.initializer, feed_dict={features_placeholder: features,                                           labels_placeholder: labels})

reinitializable iterator和feedable iterator相比initializable iterator更复杂,也更加少用,如果想要了解它们的功能,可以参阅官方介绍,这里就不再赘述了。

总结

本文主要介绍了Dataset API的基本架构:Dataset类和Iterator类,以及它们的基础使用方法。

在非Eager模式下,Dataset中读出的一个元素一般对应一个batch的Tensor,我们可以使用这个Tensor在计算图中构建模型。

在Eager模式下,Dataset建立Iterator的方式有所不同,此时通过读出的数据就是含有值的Tensor,方便调试。

作为兼容两种模式的Dataset API,在今后应该会成为TensorFlow读取数据的主流方式。关于Dataset API的进一步介绍,可以参阅下面的资料:



via AI Insight - 知乎专栏 http://ift.tt/2hJ3yXb
RSS Feed

RSS3

IFTTT

姚期智:量子计算只剩最后一里路;霍金:人类最好移民外太空

李林 假装发自 北展量子位 出品 | 公众号 QbitAI

一年一度的腾讯WE大会,今天下午正式开讲。多位中外科学领域的学者登台演讲,分享前沿的科技思想和技术。

核心就是人类的未来。

姚期智:量子计算只剩最后一里路

期间,中科院院士、清华交叉信息研究院院长姚期智,重点讲述了量子计算,以及量子计算将为人工智能带来什么。

姚期智首先用一个例子讲述了量子计算的强大。例如在破解RSA密码系统这件事上,传统的经典计算机需要60万年,而量子计算机最慢只需三个小时。

这是一个让学术界都会震惊的结果。

量子计算机之所以比经典计算机快,其中一个原因就是可以进行无限多的平行计算,就像是神话中的孙悟空可以拥有无穷分身一样。那么现在我们距离量子计算机还有多远?"基本上已经呼之欲出",姚期智表示量子计算机的蓝图已经有了,距离我们只剩"最后一里路",但这将是非常艰难的一段路。

六年前,清华认为量子计算的理论和方向已经明确,于是成立了量子信息中心。现在清华已经在量子比特的存储、纠错、介质等方面取得不少成绩。

姚期智笑称,未来的桌面量子计算机可以基于钻石制造。

"对我来讲最兴奋的将来,就是现在两个最热门的题目,量子计算和人工智能可以结合在一起",姚期智表示量子计算机能处理量子方程式,能让人类更好的了解自然,了解自然是如何创造了人类智能,"我们想要达到这个境界"。

量子计算机将让AI更加聪明,如果能够把量子计算机和AI放在一起,姚期智说,我们可能做出连大自然都没有想到会有如此结果的事情,例如孕育出新的物种。

霍金:星际航行是人类发展的必然

在这次的WE大会上,宇宙学家史蒂芬·霍金还谈到了人类和宇宙。

霍金的核心思想是,对人类来说地球太小了,到2600年,世界将拥挤得 "摩肩擦踵",电力消耗将让地球变成"炽热"的火球。避免世界末日,最好的方法是移民外太空。

"星际航行必然是一个长期的目标。我所说的长期,是指未来二百到五百年",霍金说。

霍金接着介绍了"突破摄星"计划,目标是让星际旅行变成现实。这个计划将向太阳系最近的星系——半人马座阿尔法星系发送一个探测器。

这个计划涉及三个概念:迷你太空飞行器、 光动力推进和锁相激光器。所谓光动力推进,就是用激光阵列射到"光帆"上,推动探测器前进,最终达到光速的五分之一。当然这背后还有一系列复杂而困难的问题。

人类作为独立的物种,已经存在了大约二百万年。霍金说:"如果人类想要延续下一个一百万年,我们就必须大胆前行,涉足无前人所及之处!"

— 完 —

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2zh3Pbx
RSS Feed

RSS5

IFTTT

刚刚!霍金向北京喊话:人类需要大胆前行,涉足无前人所及之处

演讲 | 史蒂芬•霍金



你好,北京!我是史蒂芬•霍金。欢迎来到腾讯 WE 大会。


我今天的演讲,是关于在宇宙这一背景下,地球和人类所扮演的角色。为了最好地阐述,我需要从两个维度出发,一是思考人类的未来,二是研究我们探索太空、寻求其他潜在宜居星球的选择。我今天的目的,是问大家两个问题。首先,我们需要做什么才能够确保,在力所能及的范围内,人类的未来达到尽可能完美?其次,我们为什么要考虑探索其他宜居星球?

 

一个原因是,对我们来说,地球变得太小了。在过去二百年中,人口增长率是指数级的,即每年人口以相同比例增长。目前这一数值约为 1.9%。这听起来可能不是很多,但它意味着,每四十年世界人口就会翻一番。2022 年,我将庆祝自己 80 岁的生日,而在我人生的这段历程中,世界人口比我出生时膨胀了四倍。


这样的指数增长不能持续到下个千年。到 2600 年,世界将拥挤得「摩肩擦踵」,电力消耗将让地球变成「炽热」的火球。这是岌岌可危的。然而我是个乐观主义者,我相信我们可以避免这样的世界末日,而最好的方法就是移民到太空,探索人类在其他星球上生活的可能。


但是理由充分吗?难道留在地球上不是更好?在某种程度上,今天的情况就如同 1492 年前的欧洲。当时的人们很可能坚信,哥伦布的探险注定是徒劳无功。然而,新世界的发现,对旧世界带来了深远的影响。对于那些被剥夺权利地位、走投无路的人来说,新世界成为了他们的乌托邦。人类向太空的拓展,甚至将会产生更深远的影响,这将彻底改变人类的未来,甚至会决定我们是否还有未来。它不会解决地球上任何迫在眉睫的问题,但它将提供解决这些问题的全新视角,让我们着眼于更广的空间,而不是拘泥眼下。希望这能够让我们团结起来,面对共同的挑战。


当我们进入太空时,会有怎样的发现呢?会找到外星生命,还是发现我们终将在宇宙中踽踽独行?我们相信,生命在地球上是自然而生的,是在漫长的进化后,实现了与地球资源的高度契合。因此,在其他条件适宜的星球上,生命的存在也必定是可能的。即使这种可能性极小,但宇宙是无限的,我们还是可以假设,生命会在某处出现。不过,如果概率很低,那么出现生命的两个星球间的距离,可能将异常遥远。


在太阳系中,月球和火星是太空移民地最显而易见的选择。水星和金星太热,而木星和土星是巨大的气体星球,没有坚实的表面。火星的卫星非常小,并不比火星本身更优。木星和土星的一些卫星也存在可能。比如木星的卫星之一欧罗巴,它的表面是冰层,但其下可能会有液态水,也就可能会孕育生命。那么我们如何确定这种可能?是否必须登陆欧罗巴,然后钻一个洞?


星际航行必然是一个长期的目标。我所说的长期,是指未来二百到五百年。


但是,还有另一种选择。去年,我与企业家尤里•米尔纳(Yuri Milner)一起,推出了长期研发计划——「突破摄星」,目标是让星际旅行变成现实。如果成功,在座各位有些人的有生之年内,我们将向太阳系最近的星系——半人马座阿尔法星系发送一个探测器。

 

「突破摄星」是人类初步迈向外太空的真正机会,为了探索和考量移居太空的可能性。这是一项概念验证的使命,其中涉及三个概念:迷你太空飞行器、 光动力推进和锁相激光器。「星芯片」是尺寸被缩小到仅几厘米、但功能完备的太空探测器,它将附着于「光帆」上。「光帆」由超材料制成,重量仅有几克。我们设想,一千个由「星芯片」和「光帆」组成的纳米飞行器将被送入轨道。在地面上,激光器阵列将共同形成一道超强光束,光束穿过大气,以数十吉瓦的功率射向太空中的「光帆」。


这项创新背后的想法,是以光束来驱动纳米飞行器的前进。这样产生的速度虽然不及光速,但也能达到其五分之一,约合每小时 1 亿英里。这样的系统可以在一小时内抵达火星,几天内到达冥王星,一周内就可以追上并超过旅行者号探测器,并在仅二十年后到达半人马座阿尔法星系。重要的是,「星芯片」的轨迹可能包括「比邻星 b」,这颗位于半人马座阿尔法星宜居带的行星,与地球的大小类似。正是在今年,「突破摄星」与欧洲南方天文台携手合作,进一步探寻半人马座阿尔法星系的宜居行星。


目前看来,这些都可能成为现实。但我们也看到重大的挑战。1 吉瓦功率的激光器仅能提供几牛顿的推力,不过因为纳米飞行器因为只有几克重量,恰恰可以克服这个问题。但是工程方面的挑战是巨大的。纳米飞行器必须经受极限加速、极寒、真空和质子,以及与太空粉尘等垃圾的碰撞。另外,由于大气湍流,将一套总量 100 吉瓦功率的激光组瞄准太阳帆,也是很困难的事情。


还有一些严峻的问题。如何让数百道激光穿过大气波动时聚合,如何推动纳米飞行器又不烧毁它们,如何让它们瞄准正确的方向?此外,我们还需要让纳米飞行器在冰冷的真空环境中工作二十年,这样它们才能将信号传回到四光年外的地球。然而这些都是工程设计要解决的问题,而工程挑战往往最终都会被解决。随着技术进步日趋成熟,我们可以展望更多令人兴奋的使命。如果「突破摄星」计划能传回毗邻星系中宜居星球的图像,这对人类的未来必将产生深远影响。


希望我已经解答了我演讲一开始所提出的问题。人类作为独立的物种,已经存在了大约二百万年。我们的文明始于约一万年前,其发展一直在稳步加速。如果人类想要延续下一个一百万年,我们就必须大胆前行,涉足无前人所及之处!


]]> 原文: http://ift.tt/2A8iIvU
RSS Feed

机器知心

IFTTT

「嵌入式 AI」这个时髦的名词,究竟是一个新理念,还是一个旧噱头?

撰文 | 高静宜

编辑 | 宇多田


在人工智能迅猛发展的当下,几乎每一家企业都在探索行业的切入点,试图在人工智能大潮中分一杯羹。


而在追寻 AI 商业化的道路上,人们逐渐发现,要实现技术的落地,不仅需要性能优越的算法模型以及可靠的硬件支持,还需要把 AI 技术和硬件环境进行有机结合,再应用到具体的实际场景中,进而满足用户的需求。


而「嵌入式 AI」就是当前最热门的 AI 商业化途径之一。




「通过观察市场我们发现,在 AI 领域主要有两拨人。一方是高大上的算法团队,一方则是以深圳老板为代表的实体出货商。有趣的是这两拨人是完全不沟通的,就像一帮人看爱奇艺,一帮人看快手一样。」Perceptln 公司联合创始人刘少山根据算法与硬件之间存在的壁垒,举了一个有意思的例子。


Perceptln 于 2016 年成立于硅谷,旨在提供机器人整体软硬件解决方案。创始人刘少山先后就职于 LinkedIn、英特尔、微软研究院,曾担任百度无人车高级架构师,对于嵌入式 AI 有一些独到的见解。


「我们做的就是把 AI 技术带给那些应用厂商,推动整个市场发展。」据刘少山介绍,Perceptln 已针对高、中、低端等不同场景的应用推出三条产品线,分别将 AI 技术嵌入到智能玩具、服务类机器人以及自动驾驶等应用中。


事实上,嵌入式并非是一个新鲜或者「高大上」的概念。


所谓嵌入式,就是指一种可被内置于设备或装置的专用计算机系统。通常来说,具有数字接口的设备都具有嵌入式系统,如手机、车载电脑、智能手表等等。


而嵌入式 AI,则是一种让 AI 算法可以在终端设备上运行的技术概念。很简单,换句话说,它的作用就是能让音箱、手机、机器人等智能硬件在不联网的情况下实时完成环境感知、人机交互、决策控制等功能。


而一位资深算法工程师告诉机器之能,通常来讲他把程序编完了扔给公司里的嵌入式工程师,后者再负责把它嵌入到板子里。其实传统做嵌入也是这个思路,两端都要考虑,俗称「两头堵」:


「按照我的理解,那些专注做嵌入式 AI 的可能是在针对 AI 模型做一些优化或是板子的优化,让算法更高效地跑在板子上。」


那么嵌入式 AI 到底能做到什么?与云端 AI 相比,更适合应用到哪些场景里?还有什么是它做不到的?我们来听听更多业内做这一行的专家们的意见:


什么样的垂直场景更需要嵌入式 AI?


众所周知,神经网络包括模型训练和推断两个过程。而一提训练,就必定会涉及海量的数据输入,计算规模也会根据场景复杂性的递增而变得愈加庞大。


因此,受到计算资源的限制,嵌入式端很难实现模型训练的过程,也是我们下面要说的「几个挑战之一」。


而在推断环节,云端推断和嵌入式推断,二者诉求不同,因此也在不同的应用场景能够发挥自己的优势:


前者的好处是,能够承受高吞吐量并满足复杂计算对资源的要求,因此多用于深度学习模型和计算较复杂的情况;而后者,则更多的应用于对「实时处理」有更高要求的场景中。


什么是「实时处理」?我们来举个最实际的例子。无人驾驶汽车需要实时监测周围环境,但是如果无人车突然进入隧道,或者进入某个连不了网的环境中呢?


是的,驾驶场景复杂多变,并不能保证时刻都能有一个百分之百可用的网络。因此,嵌入式 AI 凭借其实时性优势及脱机运行的能力得以自动驾驶领域展现实力。


国内自动驾驶卡车技术研发公司图森未来 COO 郝佳男就曾在接受机器之能采访时表示:「从理论上讲,在云端处理传感器信号并不可行,存在延迟和可用性问题。」


因此,信号的本地处理也是整个自动驾驶领域的一大诉求,因为设备端采集到数据后上传到计算完成返回终端的过程会不可避免地带来一定的延时,驾驶的危险系数也随之提升。


而中科创达副总裁孙力在前天举办的嵌入式人工智能技术论坛上也提到了这一问题:「自动驾驶汽车每秒钟可以产生 1G 的数据,必须及时的、迅速的在本地来处理决策,不可能移到云端。」




除了无人驾驶,在智能家居方面,试想一下如果用户家中安装了一个监控摄像头,那么把数据传到云端很可能会增加个人隐私泄露的风险。而由于嵌入式 AI 是在本地处理数据,数据没有上云的过程,就可以保证用户的信息安全,免除不必要的麻烦。


除了这些特定的应用场景,一些 AI 技术公司对嵌入式 AI 也有着广泛的需求。而近来因巨额融资引起广泛热议的 Face++就是其中的一员。


「虽然我们主攻金融、安防以及手机智能这三个垂直领域。」公司 CTO 唐文斌向机器之能表示,「但是我们在手机端遇到了第一个问题。」他解释道。


他们在手机端做实名认证及人脸解锁的时候发现,算法会不断「吃」计算力。也就是说,即便计算力不断增长,算法对计算力也总是处于「欲求不满」的状态。


其次是在摄像机端。他谈到算法研发人员希望在做人脸识别的时候,可以让人脸在视频中的检测、抓拍环节在相机端实现。这样一来,就可以只传输有价值的信息,而非原始的大容量视频,能够有效减少传输带宽以及后端部署服务器的计算量及存储量,让系统的整体架构变得更加轻便。


「那么,本来信息可以存 3 个月,现在可以存 3 年,这会带来非常大的价值。」唐文斌补充道。


嵌入式 AI 挑战也很多,AI 公司都是如何选择的?


在把 AI 技术部署于终端设备的过程中,嵌入式技术至关重要。简单来说,这一过程需要对芯片进行全方位考量以评估芯片的性能,然后根据神经网络算法做特殊化处理,「无缝对接」嵌入式设备的能力。「既没有浪费运算单元,又最大程度地体现算法的精度,这是一个艺术活,也是技术活。」孙力如是说。


然而,把嵌入式 AI 从云端迁移到终端却并非易事。孙力表示,目前嵌入式 AI 面临三大挑战,分别为运算能力、功耗及散热。这些也是经典嵌入式设备所面临的问题。


此外,你还需要考虑算法新增的神经网络处理单元与原有 DSP、GPU 计算架构的算法精度二者之间的平衡问题,以及如何对传统运算力较低的智能硬件设备进行升级,或者怎样为传统硬件添加 SoC 以实现智能化转型等等问题。


而这些也基本都与成本挂钩(一提钱现场都笑了)。如何让嵌入式 AI 展现出应有的商业价值,也是真实存在且亟待解决的问题。


因此,孙力表示,在具体操作上,技术人员不仅需要剪裁优化出最佳的计算模型并集成到移动设备上,还要保证操作系统向下驱动底层硬件,向上支持软件算法,而且对于终端设备他们必须有深入的理解。


「只有这样,才能保证整个嵌入式 AI 算法模型经济、高效的运算。」他强调。


又根据刘少山回忆,在创业初期,团队以为算法会是最大的门槛,结果发现整合能力的需求才是最高的。


「这也是美国有许多算法技术很强的初创公司都被谷歌、苹果这类大公司收购的原因。」他解释道,「因为,从算法到落地产品还有一个很远的距离。」


为了解决这些问题,业内目前主要采取三种实现路径,分别是「压缩算法模型」,「不断挖掘硬件潜力」,以及「在压缩模型的同时针对现有芯片进行优化」。


刘少山表示,目前看来,第三种路径是能够最快落地的。但是无论如何,优化到一定程度还会遇到瓶颈,还是需要你转过头去提高硬件性能。


那么一些明星公司们都是如何选择的呢?


上个月刚完成 A+轮融资的深鉴科技与寒武纪就选择设计开发专用芯片。而中科创达则明确表示不做芯片,只在中间层发力,根据下游行业层出不穷的新需求做定制化工作,帮助寒武纪、高通这样的上游芯片企业发挥自己的价值。


但刘少山认为:「业界有许多公司瞄准了视觉方向的芯片加速,但除此之外,针对定位导航和语音交互等技术的芯片行业还相对空白,整个市场仍存在较大发展空间。」


云和端,你选择哪一个?


唐文斌认为,「端+云」的未来发展趋势已经非常明确。一些需要移动端提供快速响应能力的场景可以选择在移动端进行计算,而需要把海量数据汇聚在一起,实现大规模数据挖掘与处理的情况可以放在云端进行。对此,中科创达 CEO 耿增强也持有相同的观点。


「不过,具体哪些放在云端,哪些放在移动端,还没有一条统一的分界线,这也是留给我们的一个问题。」孙力补充道。

「这里面存在较多的组合方式,」刘少山也认为,抓取数据、理解数据、根据理解做出行为决策等等环节可以全部在硬件执行,当然也可以部分给软件、部分给硬件。


「很多感知计算涉及深度学习网络,各家公司对这方面的硬件加速也有很深的理解。不过在决策阶段,很多算法还没有定型,以无人车为例,业界主要还是基于规则的方法来做决策。」


而耿增强则表示,我们无需担心算法定型后,嵌入式 AI 的价值会减弱。「算法是没有完美的,当这个算法趋于完美之时,大家会产生更多的需求,也会不断有新的算法出现,你总会发现自己还有很多技术工作要做。因为技术是没有穷尽的。」

不过,云和端既然还没有统一的应用分界线,那么你是怎样考虑的呢?在下方留言,说说你对嵌入式 AI 的意见和见解吧。


]]> 原文: http://ift.tt/2hHmG7S
RSS Feed

机器知心

IFTTT

阅面科技发布堪比服务器的终端视觉模块,将云端计算能力搬至终端

撰文 | 王艺、藤子


 11 月 1 日,阅面科技在深圳举办了创立两年来的首次新品发布会,共发布了三款产品:跨模态人脸识别引擎 UniFace、基于 Uniface 的「繁星」AI 芯片视觉模块、以及基于「繁星」的智能客群分析摄像机——「阅客」。


在发布会后,阅面科技 CEO 赵京雷对机器之能透露道,发布会后两天时间内,他们就收获了一百余份订单,此时的赵京雷内心难掩兴奋之情。



阅面科技 CEO 赵京雷


十多年前,赵京雷从上海交通大学博士毕业后,进入 WiseNut 从事搜索引擎和机器学习产品的研发。后来,他加入阿里巴巴,带领一支包括自然语言处理和计算机视觉技术在内的算法团队,产品涉及搜索广告推荐、图像搜索、图像过滤等。


 2013 年,赵京雷创立了虚拟试衣应用「上街吧」,这是一款集自然语言搜索、虚拟试衣、服装搭配、精准购买为一体的手机 App,通过推荐和搜索技术,以图像处理技术为基础,帮助女性穿衣搭配并完成线上购买。


 2015 年,网络上图片、视频数据大量涌现,道路上以及公共场所中的摄像头也非常普及。然而,赵京雷观察到,这些设备并不智能,或者说当时的智能是「伪智能」。因为当时图像信息被采集出来之后,放到服务器端或者云端进行批处理,处理的目的仅仅局限在图像搜索层面。


赵京雷判断,基于计算机视觉技术,让终端设备拥有真正的实时智能化的能力,在未来将有很大的爆发潜力。与此同时,移动端应用市场开始疲软。因此赵京雷放弃「上街吧」,于 2015 年 7 月创立阅面科技,专注于深度学习和计算机视觉,提供嵌入式视觉方案。


人脸识别技术:关键在于跨平台、跨场景、跨领域


作为计算机视觉的重要分支,赵京雷决定从人脸识别入手。「人脸识别的意义在于,它会成为一个新的、统一的、唯一的 ID,它会改造大量智能设备,人们无论是进出某个地方,还是登录或认证,都会基于这个 ID 去实现。」赵京雷说。


基于面部识别的情感认知引擎 ReadFace 是阅面科技推出的首个产品,从 ReadFace 的情感认知技术开始,阅面的技术一步步覆盖性别、年龄等属性的辨识,逐步发展为如今的跨模态人脸识别引擎 UniFace。赵京雷认为,在迭代研发的过程中,阅面科技走过了多个阶段。首先是底层技术,要支持人脸各种各样的基础属性,然后才是识别技术。


在识别技术方面,阅面科技多次在各个国际评测中获得优秀成绩,比如在 2017 年 5 月,人脸检测平台 FDDB 的数据显示,阅面科技的技术已处于行业领先水平,在接下来的 6 月,阅面科技人脸识别技术以 99.82% 的识别精度获得了 LFW 冠军。但赵京雷认为,人脸识别不能止步于识别技术,人脸识别要走向实际应用,需要跨平台、跨领域、跨场景。


「LFW 是一个较为标准的场景,在 LFW 上面达到非常高的水准,只能说明底层算法能力、算法团队很强,(阅面在)这点毋庸置疑。但是,从算法到应用,从标准场景到实际场景,人脸的特质会发生改变。」赵京雷说。


比如,在无人零售的应用场景中,摄像机对顾客进行人脸识别时,顾客通常情况下,并非正面对视摄像头,大多数人是以低头或歪头的状态,通过不同角度进入摄像机的范围。


即使在人物正视摄像头的应用场景,也会存在挑战。比如在人证核查,也就是将身份证照片和人脸进行对比的场景下,就存在年龄跨度的问题。若要对幼儿园的儿童进行识别,底层数据或架构也和通用的识别模式不同。


赵京雷认为,通用的模型已将精度解决到一定的程度,当特定领域,比如幼儿园的儿童识别,以及无人零售中的人脸识别,精度需要更高水准。因此,通用模型需要具备在小数据下迁移学习的能力,快速适应其他领域,让人脸识别技术满足特定场景的精度需求。


「底层的模型都是基于千万规模的数据构建的,但在一个小的领域,样本数据可能就很少。如何把这个模型的能力完整迁移过去,是我们研究的一个重点。」赵京雷说。


据赵京雷介绍,阅面科技在发布会上推出的跨模态人脸识别引擎 UniFace,拥有跨模态与迁移学习能力,与目前主流算法不同的是,UniFace 打破了不同传感器、不同环境、不同场景、不同领域人脸特征表达的限制,例如同一张注册照片能在可见光、红外、3D 三种不同的传感器中进行识别,做到以 FaceID 为连通的人脸识别体系。


「我们的算法既可以在服务器上跑,也能在终端的 DSP、VPU 等专用芯片上跑,还能在 ARM Coretx-A7 甚至 A5 等通用 CPU 内核上跑。」赵京雷进一步介绍。


阅面科技在嵌入式优化上有很深的积累,比如在 LFW 上,UniFace 的精度在 16bit 网络上为 99.82%,8bit 网络为 99% 以上,1bit 为 95% 以上。他认为,移动端模型的优化不能以损失模型精度为前提,而在未来,要以 FaceID 打通人脸系统,移动端和云端就要具有同样的精度。


计算机视觉的三个爆发点:从人脸识别到数据采集再到人机交互


「人工智能落地到行业,一定需要入口,而这个入口一定是硬件,如同智能音箱是语音的入口。人脸识别作为计算机视觉的应用,它的入口在哪里?不是在远程某个服务器的某个 API 上,而是在真正进入家庭、社区、渗入生活方方面面的硬件上。」赵京雷说。


这些硬件既可以是独立的摄像头,也可以是嵌入相机的设备或者其他设备。要实现人脸识别的广泛应用,不能单靠云端,因为云端的优势在于提供基础能力,所有的前端摄像头都需要具备智能的感知和认知层。人工智能技术或计算机视觉技术,正在逐渐贴近生活,向着简单便捷的方向发展是必然的趋势。


「之前的算法更多地是来源于实验室,部署在大型的计算中心、云端,需要很大的计算能力、功耗,无法走进人们的日常生活。」赵京雷说,在这样的情况下,首先要解决算法贴近生活领域时的精度问题,并让高精度的算法以相对较低的成本、较低的功耗运行在贴近生活的设备上。


当各种设备具备视觉能力之后,所有的摄像头将不再是影像采集设备,而成为了数据采集的设备。很多数据采集手段将被视觉代替,摄像头不仅是摄像机,会成为传感器。「室内定位等问题,或者统计客流使用的 wifi 探针技术等,在未来全部会被视觉代替,这将成为计算机视觉未来很大的应用点和爆发点。」赵京雷说。


「这种智能会带来全新的人机交互方式,我们从成立开始就一直认为以下三个点是未来最重要的应用爆发的三个点,人脸识别的需求在当下已经显现,基于视觉数据的分析 1-2 年后会爆发,而 3-5 年后的增长点则是人机交互。」赵京雷分析道。



「繁星」终端视觉模块


「繁星」AI 芯片视觉模块系列正是基于这样的逻辑推出,可搭载适用于不同场景的算法 IP。目前主要包括:繁星-人脸识别模块、繁星-数据采集模块、繁星-人机交互模块。


繁星-人脸识别模块,通过宽动态 Sensor 获取图像或视频流,分析图像或视频流中的人脸图像进行检测和识别,输出结构化数据,可同时追踪和抓拍 30 人,抓取最清晰、角度最好的人脸,抓拍率 99%,误检率小于 0.5%,抓拍重复率低于 10%。同时,支持 2 万人内的完全本地人脸识别。支持本地特征提取后传云端,满足大于 2 万人的人脸识别场景。


繁星-数据采集模块,获取并分析图像或视频流中的人头和人脸信息,进行人数、人群属性以及轨迹分析。可实时记录 15 人运动轨迹及运动方向,可进行进出指定区域的人数统计,准确率达 95%。


繁星-人机交互模块,检测识别图像或视频流中的手势、人脸、人体,并转化为指令使得机器做出正确响应。能够达到毫秒级检测及追踪速度,支持掌、拳、V 字手型、伸掌、握拳、挥手等多种手势操控,具有高鲁棒性的人脸及人体检测追踪运算。


据阅面科技介绍,「繁星」AI 芯片视觉模块尺寸为 38mm×38mm×1.6mm,由 Sensor+ISP+VPU+嵌入式深度学习视觉算法组成,在本地集成了阅面科技的深度学习视觉处理算法,本地深度学习处理功耗仅为 0.5W,整体高峰功耗小于 2.5W。

此外,「繁星」AI 芯片视觉模块支持外接视频输入以及结构化数据的实时输出,既可以作为独立 AI 摄像头嵌入到各种设备中即插即用,也可以作为视觉协处理器。例如,传统摄像机加入「繁星」AI 芯片模块,就能摇身一变,成为一个拥有视觉算法能力的智能 AI 相机。而且摄像头厂商在设计搭载「繁星」的摄像头时,不需要重新设计模具。


推出满足未来趋势和潮流的产品


产品的推出,并非易事。「从成立到现在,很长一段时间,我们都在进行技术研发,不仅涉及算法,还涉及与硬件层的衔接、系统层的应用。我们花了很大的精力进行基础研发,经过长时间积累,希望我们推出的产品能改变行业,增加行业产品迭代的效率或创新能力。」赵京雷说。


而为了给下游摄像头厂商吃颗定心丸,也为了树立「繁星」的使用样板。阅面科技采用自身的「繁星」数据采集模块研发了一款名为「阅客」的智能客群分析摄像机,并连接了阅面科技自身搭建的垂直行业云,并配有手机 App,用户能够通过该 App 实时观察到客群分析情况。利用「繁星」的本地计算能力,阅客可以轻松进行实时客流计数、会员/熟客管理、轨迹管理等功能,商家能实时掌握顾客属性和行为。目前,「阅客」已和苏宁、软通动力、淘咖啡等品牌达成合作。


赵京雷认为,UniFace、「繁星」、「阅客」这三款产品是层层递进的关系,算法——基于算法的硬件——基于硬件的产品。通过这三款产品,阅面科技能将很大部分的视觉识别能力搬至终端;降低 AI 硬件的构建成本,降低技术的使用门槛;方便垂直行业快速开发场景化的智能视觉产品。这意味着,非 AI 技术的行业商家也能轻松开发和部署人脸识别产品和系统,以消费级的价格,做到专业安防级的能力(举例来讲,具备人脸抓拍功能的安防摄像头成本是普通摄像头的 3-5 倍,而使用「繁星」,可以将 AI 摄像头的成本控制在与普通摄像头相近的范围)。


阅面科技成立于 2015 年,对于市场上的计算机视觉公司来说,并不算早。当前在计算机视觉市场上,也有不少的玩家。通常来说,一个新进入的公司要想在这个竞争格局中生存下来,差异化是重要的选择。


然而,赵京雷却表示,「对我们而言,公司发展重点不是差异化,而是思考这个领域产品形式的终极形态」,在赵京雷看来,他们对行业的认知、技术的出发点、产品的出发点、以及未来解决方案的出发点,都是基于对行业终极形态的思考构建的。「我们希望推出的产品能够满足未来的趋势和潮流。如果其他公司与我们认知一致,那我们就比谁走得快;如果我们认为的终极形态跟别人不一样,也还是会根据自己的认知走下去。」赵京雷总结道。


]]> 原文: http://ift.tt/2y1OtpC
RSS Feed

机器知心

IFTTT

LangChain 彻底重写:从开源副业到独角兽,一次“核心迁移”干到 12.5 亿估值 -InfoQ 每周精要No.899期

「每周精要」 NO. 899 2025/10/25 头条 HEADLINE LangChain 彻底重写:从开源副业到独角兽,一次"核心迁移"干到 12.5 亿估值 精选 SELECTED 1000 行代码手搓 OpenAI gpt-oss 推理引...