2018年7月2日星期一

在暴露人脸识别技术的深层问题上,有一群很拼的人……

「它能实时识别数百万张人脸,并从海量照片中精准检测出多达 100 张。」

亚马逊这样描述自己的人脸识别软件 Rekognition Technology。

但是几个月之后,它就卷入了美国警方监控纠纷。

美国人权联盟披露的文件显示,亚马逊把这个强大的人脸识别软件授权给了佛罗里达州奥兰多市和俄勒冈州华盛顿县的警方,让他们来监控人群。

以奥兰多市为例,软件能够实时追踪和分析全市几个摄像头的监控数据。另外,Rekognition 的推销内容中还特别提到,监控系统能连上警方的随身摄像头。

文件披露后,奥兰多市的警察局局长 John Mina 试图缓解公众的担心,他强调:

「我们永远不会把这项技术用于追踪普通市民,移民,社会活动者或者有色人种,」Mina 在一次记者招待会上保证。

「这是个实验项目,我们只是在测试这项技术是不是管用。」

然而,全世界都开始担心这种监控技术的滥用了。

人工智能和监控的结合在实际应用层面和道德层面都会带来问题,这引发了高层对这些带有原罪的科技公司的警惕。

与此同时,民间的反击战也打响了。

就像法国著名哲学家 Paul Virilio 说的那样:有了船只,就会有海难。有了灯塔,就会有海盗。

人脸识别软件的人种偏差

现实表明,人脸识别的有效性并不够。

位于英国的人权组织 Big Brother Watch 的一份报告发现,伦敦市警察局的人脸识别配对结果有 98% 的错误率。

南威尔士警方在演唱会、节日庆典和皇家访问等场合的相似试验在 91%的时间里都识别错了人。

考虑到白人的人脸识别结果误差要小很多,这种失准又多了一层含义。

根据纽约时报的报道,微软,IBM 和 Face++ 联合进行的算法研究发现,浅肤色男性的性别识别错误率只有 1%,浅肤色女性为 7%,而深肤色男性的到了 12%,深肤色女性的甚至高达 35%。

「虽然很敏感,但是从根本上说,当我们讨论人脸识别的时候,我们在解决身份政治,」一家国际有色女性技术专家联合组织 Hyphen-Lab 通过邮件告诉我们。

新兴技术「中立」的假设,掩盖了它们会放大潜在的人种和性别误差的事实。这创造了一种加大歧视的机器,随身摄像头从可信赖的工具转变成了看不见的监控引擎。

对于 Hyphen-Lab 来说,有一些事情需要被测试,询问,以及颠覆。

「公众隐私权真的需要拓展到有色人种社区,」这家组织说道。

「除此之外,对身份和形象的控制已经成了一种对那些历史上被集体边缘化的人群进行自由压迫的方式,无论是美国还是全球其他国家。」

「我们想要掌控自己的身份,命运和形象。」

Hyphen-lab 开展了一个由 Ece Tankal,Ashley Baccus Clark 和 Carmen Aguilar Wedge 领导的项目。

该项目展示了在一个实时识别和追踪人脸的社会里,如何反击监控。

一个 HyperFace 面具原型,它可以迷惑人脸识别软件。

艺术家兼研究者 Adam Harvey 和这个团队一起设计了并创造了一条扰乱计算机视觉算法的围巾,它的紫色的材料布满了奇怪斑点——一种 21 世纪的迷彩伪装,可以发送潜在配对以迷惑摄像头。

「如果我们对机器的输入了如指掌,我们就能欺骗,诱导和利用它们来解决我们过分依赖它们而产生的问题,」Hyphen-Lab 解释到。

这条围巾是 Hyphen-Lab 的更宏大的 NeuroSpeculative AfroFeminism 项目的一部分,这个项目还包括了内嵌摄像头的耳环和一个 Afrofuturist「神经美容术」沙龙,它们全都在探索黑人女性在科技行业的角色和形象。

当讨论到人脸识别的时候,这条围巾可以吸引人们的注意力,让大家注意到新型监控技术的不完美,基于缺陷算法搭建的机器很可能会被欺骗、规避和劫持。

如何扰乱一个计算机系统

Hyphen-Lab 承认这条围巾的实际效用还不明确,因为它是基于开源人脸识别软件的,算法更容易过时。

另外,这个项目是为了揭露隐私问题和政治监控。

「这让人生气,未经允许就利用我们周围的摄像头捕捉我们的一举一动,」这家组织解释到。

当 Hyphen-Lab 正尝扰乱交互时,其他人正尝试在技术层面扰乱人脸识别。

这种眼镜架能够欺骗脸部生物识别系统。

举个例子,来自卡耐基梅隆大学的研究员们开发了一种特制的镜架来扰乱计算机系统,这意味着穿戴者能够避免被认出,而且最让人印象深刻的是,甚至可以伪装成一个完全不同的人。

这次研究中,一个系统把一个人错认成了既是女演员 Milla Jovovich,也是男演员 John Malkovich。

在另一个斯坦福研究员 Jiajun Lu 领导的项目里,他创造了「对立示例」来欺骗图像识别工具,包括人脸认证系统和识别红绿灯以及交通情况的自动驾驶汽车系统。

对于前者,Lu 和他的团队创造了一个看起来很像 Google DeepDream 噩梦之一的伪装面具。

「通过使用我们的伪装,人脸在各种视觉条件下都不会被检测出来:角度,距离,灯光等等,」Lu 说。

一个 DeepDream 式的伪装面具,覆盖在一个人的脸部录像上。

然而,这项研究中的伪装是覆盖在一个人的脸部录像上的,Lu 告诉我们「制作纹身贴纸,放在一个人的脸上是小菜一碟。」

他建议试验「活纹身」,它由基因编程过的活细胞制作而成,可以用来达到试验目的。

这种活纹身的好处是,面具能够被设计成在特定条件下才会显现,纹身里的细胞被程序设计成只有在收到命令时才会显露它们的颜色,或者其他特定的环境条件被满足。

考虑到这个伪装面具会让你看起来像一个行走的致幻剂,它能够随你心意关闭是很有用的。

中国的监控技术实验平台

然而,Lu 并不是在为示威者,黑客或者间谍开发这些「对立示例」。他说,这项研究背后的想法是推动神经网络的设计者们去改进他们系统里的算法。

「深度学习领域里的人正变得对网络安全越来越担心,即使这些网络取得越来越多的成就。我们承受不住安全隐患。毫无疑问会有越来越多的人尝试攻击这些系统。」

把船打翻,缺陷会暴露出来,也就会有改进的地方。这提醒了我们,即使伦敦市警察局最近的试验结果不够准确,令人发笑,但是这项技术是在不断进化的。

如果你想得到下一个十年它会走向何方的线索,朝东边看。

虽然英国和美国在发展人脸识别系统上面临着技术上和政治上的全方位阻碍,在中国,则是另一番景象。

商汤的监控系统在运行。

商汤科技,得益于公司的图像识别能力,这家处在中国 AI 热潮核心地位的公司的估值最近达到了 30 亿美元。

商汤的客户是一大堆政府相关的代理商,它们给公司提供了数量巨大的数据,这能让很多西方国家的 AI 公司垂涎三尺。

在与 Quartz 的对话中,商汤的 CEO 徐立指着一个超过 20 万张图片的训练数据库说到:

「如果你能拿到政府数据,你就有了全部中国人的数据。」

作为交换,商汤提供它的 Viper 监控系统,这个系统能把来自 CCTV,ATM 摄像头和办公室人脸扫描仪的影像资料收集起来,能够同时处理 10 万在线视频流数据。

在这些技术的核心地带,身份政治问题再次出现了。毕竟,在过去的几年里,这项高端监控技术的实验平台大多都放在边远省份,也是因一连串恐怖主义活动而备受指责的地方。

商汤强调 AI 图像识别可以用来做好事,比如可以用来帮助寻找丢失的小孩。这种看法在亚马逊的 Rekognition 系统上也有共鸣。

在美国人权联盟公开这家科技巨头与执法机关的合作关系细节之后,亚马逊发表了一份声明争辩到,Rekognition「在现实世界有很多用途,」包括在游乐园寻找丢失儿童。

毫无疑问这是事实,毫无疑问这也不是故事的全部。

图像识别的适用范围和能力在不断扩大,无论摄像头是在我们的手机里,在游乐场,还是在警察的胸部,我们的身份都是目标。

也许会有停止智能围巾和眼镜来欺骗系统的改进,但是一旦你发明船只,海南就会出现,海盗也会出现。

「我们知道会更新,」Hyphen-Lab 说。

「我们的手机,电脑,汽车都会更新,随着人脸识别技术的发展,我们仍然会坚持推出可能的手段来扰乱它的预期用途。」

]]> 原文: https://ift.tt/2z5paYW
RSS Feed

机器知心

IFTTT

四年摸索,这家B+轮AR公司看见杀手级产品就藏在行业链里

六年前,面向消费市场的谷歌眼镜横空出世。随之而来的,是市场对 AR 技术期待值的高涨,在当时的话题度完全不输如今的 AI 技术。

项目动用了谷歌最神秘的 X 实验室里的精英,打造出的这款增强现实型穿戴式智能眼睛,被媒体称为「划时代」的科技产品。

可好景不长,这个被寄予厚望的产品上市后却是「高开低走」:由于价格偏高、没有杀手级应用、设备频出漏洞等原因,人们不愿为其买单,谷歌眼镜最终逐渐淡出了公众的视野。2015 年,谷歌宣布取消谷歌眼镜项目,停止对外出售及产品维护。

尽管谷歌后来也表示并未真正放弃谷歌眼镜项目并尝试回归市场,但在这之后,AR 眼镜领域也并未出现真正打开局面的后继者。Snapchat 于 2016 年底推出了一款可以拍摄全景视频的 AR 眼镜 Spectacles,相比 Google glass ,它类似墨镜的设计和价格定位向 C 端用户靠近许多,但「塑料玩具感」造成销量也并不理想,接连爆出过滞销、积压库房等消息。

如此一来,这种研发成本和能力要求不低的行业还有机会吗?

谷歌眼镜的「颓势」让吴斐在创办 AR 公司亮亮视野的四年时间里,反复面对这样一个问题:

「谷歌多有钱、工程师多牛啊,他们都没成功你怎么能成功?」

但这家中国的创业公司甚至没打算走低价路线。今年年初,亮亮视野推出的新一代人工智能 AR 眼镜 GLXSS ME ,售价比 Google Glass 还高。

在他看来,「行业在早期要解决的是单一问题,在解决单一问题上,小企业和大企业还是有得一拼。谷歌的方向没有错,问题是谷歌一开始就把产品放到消费市场里,大家预期太高结果谷歌自己的动作变形,这才是真正把谷歌带向深渊的根源。同时,也没有任何一个真实的需求能被落地解决,所以整个行业才会又回归到瓶颈阶段。」吴斐说。

在行业扎根多年,他对 AR 眼镜的看好没有打过折扣,但从几个人靠着四面白墙开始,一路伴随着这些大公司「跌宕起伏」的阴影,直到 2017 年底实现了盈亏平衡,他们才切实从市场上认识到,工业制造业、医疗、安防这些传统场景里隐藏着真正的机会。

我们解决的是「第一视角」交互需求

AR 眼镜究竟是不是一个伪需求?什么样的产品形态是贴近行业用户需求的?

吴斐一直认为,其实 AR 眼镜的底层逻辑非常清晰——

从最原始的卡带机到计算机再到后来的触屏手机,人类一直存在方向明确的需求,即更加自然、通畅的交互方式。在他的未来设想里,人们可能甚至无法分清戴上眼镜是真实的世界还是拿下眼镜才是真实的世界。

这被吴斐定义为「第一视角」交互革命,也是公司的底盘。

「大家都说一个公司的产品要聚焦,很多时候大多数公司容易聚焦到某一项技术上,例如手势识别、人脸识别等。可当我们在迭代过程中却发现,产品应该聚焦什么?其实是聚焦问题。」吴斐解释道。

围绕解决「第一视角」的问题,亮亮视野的所有技术方向开始极度收敛。

一开始,亮亮视野发布的也是一体机,从产品、技术上去推导,对于客户体验来说,没有线的一体机才是一个完整的产品。但想象一下,普通眼镜 20 g不到,人如果戴 1 斤多的东西在头上完全不可能长时间使用。

当时,市面上多数产品都是双目或头盔式,吴斐认为这种设计多半是想集成更多元丰富的交互,本质上考虑的都是怎么把 PC 端那样的体验放到眼前,比如按键手抓过去这种设计。「我们回忆一下用 Window CE 系统的多普达手机,点开始、菜单、文件、excel点一个小格,真正把电脑操作搬上了手机,谁改变了它?触控,手指是圆的,更符合人手的交互习惯,而眼镜一定是一个不同的交互模式。」

「反观我们,当我们聚焦第一视角的交互体验时,我们发现之前的决定是错的。」吴斐说,「今天的技术可以在分体式产品上提供一个不错的体验,那么与第一视角强相关的要放在眼镜,而与第一视角交互行为弱相关的应该可以交给手机。」

移动,是 AR 眼镜最重要特性之一,而要做到这一点,首先产品就要足够轻。

GLXSS ME 采用分体式设计,重量为 33.4 克,大约与一幅普通眼镜的重量持平( Google Glass 重 50 克)。

选择「轻」背后是一系列受限条件,是对产品硬件及工艺要求的高要求,要不断对各方面进行取舍。

比如第一个限制,所有的器件都要足够小,功耗还要足够低,在计算上在功能上在很多器件上都要做取舍,Hololens 舍弃的是体积,还有一些产品舍弃的是功能。

「我们认为每一克都是很有价值的,所以是 0.1 克、0.1 克往下抠。」吴斐说道。为此,亮亮视野的所有研发与设计都要遵循「最小系统」的原则,把一切不必要的部件都去掉,包括一些阻容感、塑料,这样做可以在不影响性能的情况下减重。

以光学显示环节为例,业内存在多种技术路线,每个方向都在快速发展但未来究竟哪种方案会胜出还未可知。在吴斐看来,无论哪种方案,最后成为行业标准的技术并不一定是最好的或最简单的,应该是最顺应行业需求的。

另一方面,「移动性」等同于实时性,也就意味着 AR 眼镜在感知与交互能力上的挑战。

不管使用者移动到任何场景下,眼镜都需要及时作出反应,比如,他是一位物业管理人员,当他走到电力设备面前再走到物业管理中心,眼镜提供的不同指示和功能需要即时切换。这背后要求的是,系统能通过环境感知迅速触及云端,拿到数据再反馈到眼镜上。换句话说,这考验的是 AR 眼镜的现实感知能力,即系统计算能力。

GLXSS ME 选择搭载英特尔的 AI 芯片,基于端计算的神经网络推理框架为眼镜赋予视觉能力。

吴斐认为,就像 Linux 嵌入式的发展成就了安卓,安卓带上精简指令集最后才有了整个安卓手机的生态,第一视角交互革命一定是一样的,第一步是拿矢量计算器完成现实的感知、识别,接下来整个业界去做基于高实时性系统的操作系统。

「目前感知还有很大的提升空间,我们的能力更多是在软件、算法架构上面,在前端嵌入式计算环节投入比较多,非常多的人在这上面做架构、底层的改造,上层的应用优化。」吴斐说道。

他透露,公司从 2016 年初就开始着手布局 AI 领域的技术研发并组建团队,目前该团队大约有四十人,从事底层架构的改造以及上层的应用优化等方面。「我们现在用 ResNet50 层模型从检测、跟踪到识别一个人脸可以做到 200ms 以内。」

中国式生存之道

即便是把眼镜做轻,可以长时间佩戴,但这些 B 类客户拿来「看」什么?

「刚开始产品的试用反响不是很好,很多人把它当成一个噱头,后来我们按行业、领域找客户,跟客户一起去推导出合适的应用场景,」吴斐告诉机器之能,很多公司是有技术再把技术给到客户用,也有公司完全听客户的需求做产品,这两种都会遇到很大的问题,比如很多时候,客户的需求点并不成熟,直到产品做出来可能才了解并不是他们想要的,这样的迭代方式非常耗时耗精力。

从 2015 年开始,团队跳进行业里,去做大量 to B 的验证工作,亮亮视野形成了一套底层逻辑靠技术推导、产品需求向客户深度挖掘的双轮驱动体系。

团队曾在物流公司里同工作人员一起做分拣,去理解物流业工作体系,从找分拣流程中找业务机会,电力、石油、安防、医疗等领域也是如此。

「我们的产品和开发都会跟他一起干活,比如跟医生进手术室观摩等,我们不仅听他告诉我我要什么,而是看他真实用的时候感受是什么。我们发现他们的需求有几点,首先需要非常舒适的佩戴,要有很强的感知能力,另外他们需要的是一套系统。」

GLXSS Live第一视角人机协作平台服务架构

当时,大部分AR公司瞄准的都是硬件,亮亮视野迅速明确更重要的一件事是及时切入到行业生态里——

打造基于「第一视角」的智能交互平台,提供远程指导系统、构建更高效的软件开发环境。

「这个行业在早期一定要有一套自己的完整解决方案,客户的问题对应的是解决方案而不是硬件产品。

花了三年时间,在软件上我们给不同的客户提供不同的远程指导系统、移动安防系统,整个这套都做完之后,我们才真正有了 Alpha 客户,我们慢慢发现这里有非常刚性的需求,然后开始投入量产,到今天形成了规模商业化。」

从第一单 4 台设备到几十台再到批量上千台,熬到了很多客户已经开始形成自己的软件开发团队,产品还没到手就已经进入开发软件环节。「这时候,我们很有信心量产化,形成软件、SDK 体系化打法往下走。」

在这样的体系中,很多客户一个月 30 天、一天 8 小时在使用眼镜,合作伙伴可以把他们的工程师从10个减少到1个,而且无需理解微软 Hololens 那一整套操作,只要知道安卓怎么投屏上去就可以解决问题。

当这些客户真正开始长时间使用眼镜,吴斐才真正感受到 AR 眼镜这个产品摸索出来了。

2017 年的第四季度,公司完成了第一次量产。

「当时深圳工厂量产出了第一批产品,而且客户要的非常急,我们还记错了到货时间和发货时间,结果客户就直接到工厂把几百台产品全部提走了。」吴斐笑着回忆道,之后类似的订单就越来越多了。

当然,对于AR眼镜这种前沿科技产品来说,切入行业应用的过程中都难免遇到问题,需要与客户不断展开深入的改进与磨合。

吴斐举了一个与华为合作的例子,去年在刚开始为华为eViewe智能服务装备提供前端的智能眼镜及核心技术的时候并不顺利。当时华为希望迪拜机房的工程师在佩戴眼镜时,位于深圳的专家可以实现远程指导。而第一次试用的效果却并不理想,机房声音嘈杂、对焦不清晰、后台需要支持成千上万的工程师……这些都是问题。

为了解决这个问题,双方一起构建了一套基于全球架构的流媒体服务。在此基础上,亮亮视野提供远程指导功能,知识库的实时积累以及一键呼叫+智能预约等服务。

「我们可以花费一、两年的时间去不断迭代,这个算法不行就重新来,这个眼镜不行就重新做,就是一直要做到成功。」吴斐说道。

尽管从目前的市场销量来看,AR眼镜的未来之路尚未明朗,但仍有不少公司前赴后继而来。前有谷歌、微软继续加码、苹果在此蓄力,后有小型创业公司试图啃食细分市场,甚至Rokid 这样的 AI 创业公司也在最近发布了自家的AR眼镜,想要分一杯羹。

「我们这个领域到今天也没有产品是一模一样的,甚至可以说千奇百怪,因为没有一个公式可以解决所有问题,也说明这个行业正处于早期。

另一方面,基本每个产业领域都有交互需求,每家公司专注的应用很难重叠,所以很长一段时间里,大家是碰不到的。」

今年 6 月,亮亮视野完成了亿元人民币 B+ 轮融资,由建银国际领投、蓝驰创投、经纬中国跟投,也成为国内首家完成 B+ 轮融资的 AR 公司。

吴斐告诉机器之能,目前公司有 100 人左右,新一笔融资的资金会用于扩大团队规模、扩展商业场景和扩大市场覆盖。

「AR 眼镜是一个非常复杂的交叉学科,不仅考验技术上的能力,还对产品的结构设计、供应链、渠道等方方面面有较高要求。所以你要从头走到尾,把整个链条都打通,这些都打通的一天才是客户买眼镜的第一天。这个行业在这个阶段真正的挑战是这个,而不是生产一副AR 眼镜本身。」吴斐总结道。

]]> 原文: https://ift.tt/2z2OwGX
RSS Feed

机器知心

IFTTT

Google惊人研究:一组图片,就能强迫神经网络执行其他任务

夏乙 发自 凹非寺量子位 出品 | 公众号 QbitAI

还记得那些把熊猫认成猩猩、把乌龟认成枪、把枪认成直升机的算法吗?

它们遭遇的,是一个名为"对抗攻击(adversarial attacks)"的敌人。这个敌人每次出现,都能让图像识别算法不知所措。

现在,更丧心病狂的来了。

谷歌大脑三位研究员Gamaleldin F. Elsayed、Ian Goodfellow、Jascha Sohl-Dickstein的最新论文展示了一种新型对抗攻击手段,AI前所未遇的强大敌人。

他们说,对抗攻击不仅能让图像识别模型认错图,还能对被攻击模型进行重新编程,让它们抛弃本职任务,去干一些由攻击者指定的,别的事情。他们将这种偷天换日指派的事情称为"对抗任务"。

就算是模型根本没有这种技能,也没关系。所需要的,仅仅是在测试图像上加入一些对抗扰动信息。

比如说,让ImageNet分类器改行去数方块

实现的过程并不复杂,总共分三步。

首先,要在ImageNet标签和对抗任务标签之间建立映射。在这个例子里,就是将ImageNet的类别,映射到方块的数量,鲤鱼是1个方块,金鱼是2个方块,白鲨是3个方块……

映射建立好之后,就要把表示对抗任务的图片嵌入到一个对抗程序图片的正中间,得到用来攻击神经网络的对抗图片

接下来,就该让对抗图片和目标模型见面了。

二者见面之后,目标模型就放弃了原本的图像识别任务,只会数图上究竟有几个方块。

重新分配的任务也可以比数方块复杂一点,比如说,让ImageNet分类器以为自己是个只会识别手写数字的MNIST分类器

用来实现这个任务的对抗图片,就长成上图的样子。

同样的方法,还可以让ImageNet分类器变成CIFAR-10分类器

惨遭他们毒手的,有六个ImageNet图像识别模型,包括三种Inception变体和3种Resnet变体。

还好还好,没让神经网络去干什么惊世骇俗的事儿。

但是要知道,这项研究才刚刚起步,以后会发展到什么程度,谁也不好说……毕竟,以前并没有人给神经网络挖过这样的陷阱。

Elsayed等人在论文中也说,这些结果首次展示了这类攻击的可能性。

这一研究的三个作者,全部来自Google Brain团队。

其中第一作者Gamaleldin F. Elsayed,去年从哥伦比亚大学获得博士学位。目前,他其实是一位Google AI Residency成员,也就是相当于实习或者访学的身份。

第二作者Ian Goodfellow,大名鼎鼎。通常也被称作生成对抗网络(GANs)之父,人工智能领域的大牛。早年间,他致力于教神经网络造假骗人;现在,他的大部分研究集中在对抗攻击领域,专注于欺负神经网络。

第三作者Jascha Sohl-Dickstein,2012年在伯克利获得博士学位。加入Google之前曾在斯坦福做访问学者。

Jascha把他们的这个研究发到了Twitter上,立刻引发了大量用户的转载。不过留言评论的目前只有一个人。

那个人问:你们什么时候发布源代码?谢。

……

论文

更多详情,请看他们的论文:

Adversarial Reprogramming of Neural NetworksGamaleldin F. Elsayed, Ian Goodfellow, Jascha Sohl-Dicksteinhttps://arxiv.org/abs/1806.11146

当然,如果你想直接下载pdf版本,也可以在量子位公众号(QbitAI)对话界面,回复:"攻击"两个汉字即可。

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 https://ift.tt/2KDIUHK
RSS Feed

RSS5

IFTTT

Google惊人研究:一组图片,就能强迫神经网络执行其他任务

夏乙 发自 凹非寺量子位 出品 | 公众号 QbitAI

还记得那些把熊猫认成猩猩、把乌龟认成枪、把枪认成直升机的算法吗?

它们遭遇的,是一个名为"对抗攻击(adversarial attacks)"的敌人。这个敌人每次出现,都能让图像识别算法不知所措。

现在,更丧心病狂的来了。

谷歌大脑三位研究员Gamaleldin F. Elsayed、Ian Goodfellow、Jascha Sohl-Dickstein的最新论文展示了一种新型对抗攻击手段,AI前所未遇的强大敌人。

他们说,对抗攻击不仅能让图像识别模型认错图,还能对被攻击模型进行重新编程,让它们抛弃本职任务,去干一些由攻击者指定的,别的事情。他们将这种偷天换日指派的事情称为"对抗任务"。

就算是模型根本没有这种技能,也没关系。所需要的,仅仅是在测试图像上加入一些对抗扰动信息。

比如说,让ImageNet分类器改行去数方块

实现的过程并不复杂,总共分三步。

首先,要在ImageNet标签和对抗任务标签之间建立映射。在这个例子里,就是将ImageNet的类别,映射到方块的数量,鲤鱼是1个方块,金鱼是2个方块,白鲨是3个方块……

映射建立好之后,就要把表示对抗任务的图片嵌入到一个对抗程序图片的正中间,得到用来攻击神经网络的对抗图片

接下来,就该让对抗图片和目标模型见面了。

二者见面之后,目标模型就放弃了原本的图像识别任务,只会数图上究竟有几个方块。

重新分配的任务也可以比数方块复杂一点,比如说,让ImageNet分类器以为自己是个只会识别手写数字的MNIST分类器

用来实现这个任务的对抗图片,就长成上图的样子。

同样的方法,还可以让ImageNet分类器变成CIFAR-10分类器

惨遭他们毒手的,有六个ImageNet图像识别模型,包括三种Inception变体和3种Resnet变体。

还好还好,没让神经网络去干什么惊世骇俗的事儿。

但是要知道,这项研究才刚刚起步,以后会发展到什么程度,谁也不好说……毕竟,以前并没有人给神经网络挖过这样的陷阱。

Elsayed等人在论文中也说,这些结果首次展示了这类攻击的可能性。

这一研究的三个作者,全部来自Google Brain团队。

其中第一作者Gamaleldin F. Elsayed,去年从哥伦比亚大学获得博士学位。目前,他其实是一位Google AI Residency成员,也就是相当于实习或者访学的身份。

第二作者Ian Goodfellow,大名鼎鼎。通常也被称作生成对抗网络(GANs)之父,人工智能领域的大牛。早年间,他致力于教神经网络造假骗人;现在,他的大部分研究集中在对抗攻击领域,专注于欺负神经网络。

第三作者Jascha Sohl-Dickstein,2012年在伯克利获得博士学位。加入Google之前曾在斯坦福做访问学者。

Jascha把他们的这个研究发到了Twitter上,立刻引发了大量用户的转载。不过留言评论的目前只有一个人。

那个人问:你们什么时候发布源代码?谢。

……

论文

更多详情,请看他们的论文:

Adversarial Reprogramming of Neural NetworksGamaleldin F. Elsayed, Ian Goodfellow, Jascha Sohl-Dicksteinhttps://arxiv.org/abs/1806.11146

当然,如果你想直接下载pdf版本,也可以在量子位公众号(QbitAI)对话界面,回复:"攻击"两个汉字即可。

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 https://ift.tt/2KDIUHK
RSS Feed

RSS5

IFTTT

潘建伟团队实现18个光量子比特纠缠,再次刷新世界纪录

夏乙 问耕 发自 凹非寺量子位 出品 | 公众号 QbitAI

又一个突破诞生!

中国科大宣布在国际上首次实现18个光量子比特的纠缠,刷新了所有物理体系中最大纠缠态制备的世界纪录。

没错,刷新这个纪录的,又是潘建伟教授团队,包括:陆朝阳、刘乃乐、汪喜林等人。

这一成果可进一步应用于大尺度、高效率量子信息技术,表明我国继续在国际上引领多体纠缠的研究。

这篇论文,以"编辑推荐"的形式发表在顶级学术周刊《物理评论快报》上,据报道从投稿到接收,只用了三个星期。

论文的传送门在此:

https://ift.tt/2Nj8cJJ

如果你不是注册用户,还有另一个阅读通道。实际上,今年1月,潘建伟团队的这个论文的预印版,也发布在了arXiv上。

arXiv传送门在此:

https://ift.tt/2KGFIrm

量子位也搬运了这个预印版的一些内容如下。

摘要

量子信息科学的核心主题之一,是控制数量不断增长的量子粒子,以及这些粒子的内部与外部自由度,同时保持高度的一致性。通过独立控制和测量每个量子比特,来创建和验证多粒子纠缠的能力,是量子技术的重要基准。

为实现这些,已发表的真多体纠缠研究最高实现了14个囚禁离子、10个光子和10个超导量子比特。

这里,我们通过同时利用六个光子的三个不同自由度,包括路径、偏振和轨道角动量(OAM),实验性的展示了18个量子比特GHZ纠缠。

我们为光子不同自由度之间的可逆量子逻辑运算,开发了高稳定性干涉仪,其精度和效率接近于1,可同时读出18个量子比特状态产生的218=262,144种结果组合。

这一实验的量子保真度测量为0.708±0.016,证明全部18个量子比特的真实纠缠。

这是GHZ纠缠的实验数据。

而上图展示的,是六光子偏振纠缠GHZ态的产生过程:

将中心波长788nm、脉冲持续时间120fs、重复频率76MHz的超快激光聚焦于三硼酸锂(LBO),并向上转换为394nm。

将紫外激光聚焦于三个订制的三明治式非线性晶体上,产生三对纠缠光子。其中每个晶体由两个2毫米厚的β-硼酸钡(BBO)和一个半波片(HWP)组成。

每个输出中,都使用了两片不同厚度和方向的YVO4晶体,对双折射效应进行空间和时间补偿。

三对纠缠的光子组合在两个偏振分束器(PBS)上,就产生了六光子偏振纠缠GHZ态。

攻坚克难

中国科技大学在官方消息中指出,由于量子信息技术的巨大潜在价值,欧美各国都在积极整合各方面研究力量和资源,开展国家级的协同攻关。

例如,欧盟在2016年宣布启动量子技术旗舰项目;最近,美国国会也正式通过了"国家量子行动计划";此前,大型高科技公司如谷歌、微软、IBM等也纷纷强势介入量子计算研究。

多个量子比特的相干操纵和纠缠态制备是发展可扩展量子信息技术,特别是量子计算的最核心指标。量子计算的速度随着实验可操纵的纠缠比特数目的增加而指数级提升。

然而,要实现多个量子比特的纠缠,需要进行高精度、高效率的量子态制备和独立量子比特之间相互作用的精确调控。

量子比特数目的增加,使得操纵带来的噪声、串扰和错误也随之增加。这对量子体系的设计、加工和调控要求极高,对量子纠缠和量子计算的发展构成了一个巨大的综合挑战。

多粒子纠缠的操纵作为量子计算不可逾越的技术制高点,一直是国际角逐的焦点。

2016年底,潘建伟团队同时实现了10个光子比特和10个超导量子比特的纠缠,刷新并一直保持着这两个世界记录。

近期,出于商业目的,虽然IBM、英特尔、谷歌等宣布实现了更高数目的量子比特样品的加工,但是这些量子比特并没有形成纠缠态。

潘建伟团队

1987年,潘建伟从浙江考入中国科学技术大学近代物理系,第一次接触到了量子力学。

他和同事在过去20年一直在国际上引领着多光子纠缠和干涉度量的发展,并在此基础上另辟蹊径地开创了光子的多个自由度的调控方法。

2015年,通过实现对光子偏振和轨道角动量两个自由度的量子调控技术和单光子非破坏测量。

通过多年的不懈探索和技术攻关,研究组自主研发了高稳定单光子多自由度干涉仪,实现了不同自由度量子态之间的确定性和高效率的相干转换,完成了对18个量子比特的262144种状态的同时测量。

潘建伟入选2017《自然》十大科学人物

在此基础上,研究组成功实现了18个光量子比特超纠缠态的实验制备和严格多体纯纠缠的验证,创造了所有物理体系纠缠态制备的世界纪录。

此外,潘建伟还和团队一起建成了国际上规模最大的量子通信网络,从太空建立了迄今最遥远的量子纠缠,构建出世界上第一台超越早期经典计算机的光量子计算机……

前不久潘建伟指出,曼哈顿计划使得美国率先掌握核武器影响20世纪的政治格局,量子信息技术从某种意义上讲是和平年代的"核武器"。由于我国重视比较早,目前处于并跑状态。

潘建伟现担任中国科学技术大学常务副校长,中国科学院量子信息与量子科技创新研究院院长,中国科学院院士等职。

论文

如果你想直接下载PDF版本的预印版论文,可以在量子位公众号(QbitAI)后台,回复:"18"这个数字,即可获得。

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 https://ift.tt/2NjG6Oz
RSS Feed

RSS5

IFTTT

LangChain 彻底重写:从开源副业到独角兽,一次“核心迁移”干到 12.5 亿估值 -InfoQ 每周精要No.899期

「每周精要」 NO. 899 2025/10/25 头条 HEADLINE LangChain 彻底重写:从开源副业到独角兽,一次"核心迁移"干到 12.5 亿估值 精选 SELECTED 1000 行代码手搓 OpenAI gpt-oss 推理引...