2018年3月6日星期二

神乐小姐姐喂你吃糖糖!日本最新机械臂+VR眼镜登场~

出金 发自 凹非寺量子位 出品 | 公众号 QbitAI

晚上了,发个好玩一点的。

本来吧,这事儿是一个广告。可是吧,连一堆国外搞人工智能、机器学习的大牛,都按捺不住纷纷跟着起哄了。

事情是样的。

日本一个糖果厂,搞出一个"4D眼镜"。其实就是一个VR眼镜,加上一个塑料材质的机械臂。这套设备的不同之处在于……

当你带上VR眼镜,就会看到一个小姐姐。

没错,就是电影《银魂》里神乐的扮演者桥本环奈,在VR眼镜中,拿着一颗甜蜜的糖果,笑盈盈地喂到嘴里给你吃~

当你幸福的张开嘴,机械臂就真把一颗糖果塞到你嘴里了~

VR带来的效果,非常的真实~

宛如初恋的感觉。

有时候,有时候,小姐姐还调皮的逗你玩,机械臂也会跟着把喂到嘴边的糖果,快速的挪开。这种感觉,让视频中的日本男青年,欲罢不能~

好东西跟朋友一起分享~

据说,据说,有人会为此流下幸福的眼泪。

完整视频在此:

不过这款产品,并不公开发售。

糖果厂在推特上搞活动,在用户里抽奖送出。参与者需要在日本居住,13岁以上,拥有推特账号并且同意游戏规则才行。

而且,中奖名额只有两个……

行吧。

桥本环奈其实还给这个糖果厂拍过一系列广告,最后,奉上一个集锦赏析。

就酱~

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2tnbkON
RSS Feed

RSS5

IFTTT

给无人车加个透视眼 | 斯坦福SCIL实验室最新Nature文章

原作 TAYLOR KUBOTARoot 编译自 Stanford News量子位 报道 | 公众号 QbitAI

拐角路口没有装凸面反光镜的话。

老司机开车都得减速慢下来。

谁知道拐弯看不见的地方,会不会有人或小动物突然窜出来。

就更别说无人车了。

辣有没有可能,现有的激光雷达能够提前看到视域外的物体,及时启动制动功能?

斯坦福SCIL实验室在努力

完全有。

在昨天,3月5号,斯坦福SCIL实验室(Stanford Computational Imaging Lab)在Nature上发表了一篇论文,Confocal Non-line-of-sight Imaging based on the Light-cone Transform

这篇文章,阐述了如何利用反射回来的光束3D建模还原出拐角盲区后的物体。

他们研发这个"透视"技术的初衷,是想用在无人车上,提前预判出拐角的人,增加无人驾驶的安全性。

斯坦福的小哥哥们研发设计了一个基于激光的系统,可以对视域外的物体成像。

"听起来很神奇,但这是可以实现的。"斯坦福电子工程助理教授Gordon Wetstein说。

"看见"看不见的

坦率地讲,这个借用激光的反射把拐角盲区的物体成像的方法,并不是只有斯坦福研究团队在做。

不过,他们的算法最好用。

算法原理介绍视频传送⤵️

"盲区物体成像的挑战,是找出一种有效的方法来从噪声测量中恢复看不见物体的三维结构,"SCIL实验室研究生David Lindell说。 "我认为,这种方法能有多大的影响力,取决于成像的计算效率。"

研究团队把激光器放在了这套系统的光子探测器旁边。

这个探测器高度敏感,可以捕捉到单个光粒子。

研究团队往墙上打人肉眼看不到的激光脉冲,然后这些脉冲遇到拐角背后的物体,会反弹回到墙上来,继而被光子探测器接收。

现阶段,扫描的过程可能需要两分钟到一小时,具体取决于光照条件和盲区物体的反射率。

一旦扫描完成后,算法会计算回收光子的轨迹,逐渐把模糊的点变成清晰的3D模型。

整个过程用不到1秒。算法流弊到可以直接在普通的笔记本上跑起来。

考虑到现有算法优秀的表现,研发特对认为他们可以加快处理速度,扫描完成的一瞬间也能成像复原盲区物体。

实际路测遇到的困难

在这篇文章工作之后,SCIL的研发团队还会继续完善这套"透视"系统。

要知道,现实世界里,无人车行驶的环境比实验室预设的场景复杂得多。

如何快速地响应这些复杂的变化?如何压缩扫描的时间?

这些都是研发团队要解决的课题。

无人车体与盲区物体的距离、环境的光照条件等各种因素,都会影响到光子探测器的光子捕捉。要准确地还原出、"看见"盲区物体的样子,在实际行驶过程中,并不是件容易的事。

另外,这种"透视"技术还得充分利用上散射的光子。而散射的光,还是当下车导航LIDAR系统选择性忽略的信息。

"我们认为,"透视"算法已经可以用到LIDAR系统上了,"该论文的共同主要作者,SCIL博士后Matthew O'Toole说。 "关键的问题是,目前LIDAR系统的硬件能不能支持这种类型的成像。"

在"透视"系统上路之前,研发团队还有两个方向可以再进一步优化。

一个是在日光照射下的表现。还有怎么应对快速移动的物体。

比方说突然有个篮球跑到路中央,或者飞速穿过马路的熊孩子。

研究人员路测了他们的技术。

他们发现,这套"透视"系统只能使用间接光。尽管这套系统可以很灵敏地发现带反光材质的物体,比方说穿了安全服的人,或者交通标志,但是对于没有穿会反光的衣物的一般路人来说,系统就发现不了(liao)了(le)。

"我们的工作,也算是迈出了有意义的一步。相信这个透视功能,未来会让我们所有人都受益的,"助理教授Wetzstein说,"我们接下来会加强这套系统在实操上的适用性。"

Wetzstein除了是电子工程助理教授之外,还兼任计算机学院助理教授,并是斯坦福Bio-X和神经生物学协会的成员。

该项目的资金支持,来自于加拿大政府,斯坦福大学研究生教育副院长办公室,国家科学基金等五个机构。

最后,附论文地址,

http://ift.tt/2I6Lfqp

& SCIL实验室网站,

http://ift.tt/1LC2BbG

& 编译来源,

http://ift.tt/2D1boTC

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2I8skvc
RSS Feed

RSS5

IFTTT

给无人车加个透视眼 | 斯坦福SCIL实验室最新Nature文章

原作 TAYLOR KUBOTARoot 编译自 Stanford News量子位 报道 | 公众号 QbitAI

拐角路口没有装凸面反光镜的话。

老司机开车都得减速慢下来。

谁知道拐弯看不见的地方,会不会有人或小动物突然窜出来。

就更别说无人车了。

辣有没有可能,现有的激光雷达能够提前看到视域外的物体,及时启动制动功能?

斯坦福SCIL实验室在努力

完全有。

在昨天,3月5号,斯坦福SCIL实验室(Stanford Computational Imaging Lab)在Nature上发表了一篇论文,Confocal Non-line-of-sight Imaging based on the Light-cone Transform

这篇文章,阐述了如何利用反射回来的光束3D建模还原出拐角盲区后的物体。

他们研发这个"透视"技术的初衷,是想用在无人车上,提前预判出拐角的人,增加无人驾驶的安全性。

斯坦福的小哥哥们研发设计了一个基于激光的系统,可以对视域外的物体成像。

"听起来很神奇,但这是可以实现的。"斯坦福电子工程助理教授Gordon Wetstein说。

"看见"看不见的

坦率地讲,这个借用激光的反射把拐角盲区的物体成像的方法,并不是只有斯坦福研究团队在做。

不过,他们的算法最好用。

算法原理介绍视频传送⤵️

"盲区物体成像的挑战,是找出一种有效的方法来从噪声测量中恢复看不见物体的三维结构,"SCIL实验室研究生David Lindell说。 "我认为,这种方法能有多大的影响力,取决于成像的计算效率。"

研究团队把激光器放在了这套系统的光子探测器旁边。

这个探测器高度敏感,可以捕捉到单个光粒子。

研究团队往墙上打人肉眼看不到的激光脉冲,然后这些脉冲遇到拐角背后的物体,会反弹回到墙上来,继而被光子探测器接收。

现阶段,扫描的过程可能需要两分钟到一小时,具体取决于光照条件和盲区物体的反射率。

一旦扫描完成后,算法会计算回收光子的轨迹,逐渐把模糊的点变成清晰的3D模型。

整个过程用不到1秒。算法流弊到可以直接在普通的笔记本上跑起来。

考虑到现有算法优秀的表现,研发特对认为他们可以加快处理速度,扫描完成的一瞬间也能成像复原盲区物体。

实际路测遇到的困难

在这篇文章工作之后,SCIL的研发团队还会继续完善这套"透视"系统。

要知道,现实世界里,无人车行驶的环境比实验室预设的场景复杂得多。

如何快速地响应这些复杂的变化?如何压缩扫描的时间?

这些都是研发团队要解决的课题。

无人车体与盲区物体的距离、环境的光照条件等各种因素,都会影响到光子探测器的光子捕捉。要准确地还原出、"看见"盲区物体的样子,在实际行驶过程中,并不是件容易的事。

另外,这种"透视"技术还得充分利用上散射的光子。而散射的光,还是当下车导航LIDAR系统选择性忽略的信息。

"我们认为,"透视"算法已经可以用到LIDAR系统上了,"该论文的共同主要作者,SCIL博士后Matthew O'Toole说。 "关键的问题是,目前LIDAR系统的硬件能不能支持这种类型的成像。"

在"透视"系统上路之前,研发团队还有两个方向可以再进一步优化。

一个是在日光照射下的表现。还有怎么应对快速移动的物体。

比方说突然有个篮球跑到路中央,或者飞速穿过马路的熊孩子。

研究人员路测了他们的技术。

他们发现,这套"透视"系统只能使用间接光。尽管这套系统可以很灵敏地发现带反光材质的物体,比方说穿了安全服的人,或者交通标志,但是对于没有穿会反光的衣物的一般路人来说,系统就发现不了(liao)了(le)。

"我们的工作,也算是迈出了有意义的一步。相信这个透视功能,未来会让我们所有人都受益的,"助理教授Wetzstein说,"我们接下来会加强这套系统在实操上的适用性。"

Wetzstein除了是电子工程助理教授之外,还兼任计算机学院助理教授,并是斯坦福Bio-X和神经生物学协会的成员。

该项目的资金支持,来自于加拿大政府,斯坦福大学研究生教育副院长办公室,国家科学基金等五个机构。

最后,附论文地址,

http://ift.tt/2I6Lfqp

& SCIL实验室网站,

http://ift.tt/1LC2BbG

& 编译来源,

http://ift.tt/2D1boTC

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2I8skvc
RSS Feed

RSS5

IFTTT

2018年3月5日星期一

首个72量子比特的量子计算机问世,谷歌出品

安妮 编译整理量子位 出品 | 公众号 QbitAI

比春天这气温升得还快的,是量子计算的热度。

无论是2012年开始入局的微软,还是才研发出50量子比特原型机没多久的IBM,亦或是放言"2017年底实现量子霸权"的谷歌,量子计算机于科技巨头来讲,是一条彰显实力的单独赛道。

这不,谷歌又放出大消息了。

昨天,在洛杉矶召开的美国物理学会会议上,谷歌推出了拥有72量子比特的新量子处理器Bristlecone。

这是一种基于门的超导系统,可用于研究量子比特技术的系统错误率和可扩展性,也为量子模拟、优化和机器学习方面的应用提供了一个实验平台。

量子计算双限制

错误率是所有量子计算机都要面临的一个主要问题。

受自身特性的限制,量子计算机通常需要在极低的温度下运行,讲道理是不受环境影响的。但由于目前的技术中量子比特仍然高度不稳定,因此任何噪声都可能导致错误。

正因如此,现代量子处理器中的量子比特不能算是真正的量子比特,可能称为许多位的组合更准确。

还有一个限制因素是,大多数系统只能在100微秒内维持自身状态。

技术创新

这一次,谷歌沿用了之前9量子比特线性阵列技术的物理机制,这在当时就达到了读数错误率为1%,单量子比特门错误率为0.1%,双量子比特门的错误率是0.6%的好成绩。Bristlecone用同样的方案进行了耦合、控制和输出。

重要的是,每个Bristlecone处理器有72量子比特。

业界普遍认为,要实现量子霸权需要49量子比特,但谷歌认为说量子计算机不仅与量子比特相关。

"像Bristlecone这样的设备,如果要在低系统错误的情况下运行,需要软件、控制电子设备到处理器本身的整套技术之间的协调,"谷歌在博客中写到,"要做到这一点,需要在多次迭代中小心进行系统工程操作。"

One more thing

关于谷歌、微软和IBM的这场量子计算竞赛的排行榜还在实时更新中,现在下定论哪家最强还为时尚早。

不过,有个题外话挺有意思。今年1月底,《金融时报》曾发文报道称在接下来的几周,谷歌和微软将分别宣布量子计算的里程碑式重大突破。

不知道微软准备的怎么样了。

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2I4oKlU
RSS Feed

RSS5

IFTTT

首个72量子比特的量子计算机问世,谷歌出品

安妮 编译整理量子位 出品 | 公众号 QbitAI

比春天这气温升得还快的,是量子计算的热度。

无论是2012年开始入局的微软,还是才研发出50量子比特原型机没多久的IBM,亦或是放言"2017年底实现量子霸权"的谷歌,量子计算机于科技巨头来讲,是一条彰显实力的单独赛道。

这不,谷歌又放出大消息了。

昨天,在洛杉矶召开的美国物理学会会议上,谷歌推出了拥有72量子比特的新量子处理器Bristlecone。

这是一种基于门的超导系统,可用于研究量子比特技术的系统错误率和可扩展性,也为量子模拟、优化和机器学习方面的应用提供了一个实验平台。

量子计算双限制

错误率是所有量子计算机都要面临的一个主要问题。

受自身特性的限制,量子计算机通常需要在极低的温度下运行,讲道理是不受环境影响的。但由于目前的技术中量子比特仍然高度不稳定,因此任何噪声都可能导致错误。

正因如此,现代量子处理器中的量子比特不能算是真正的量子比特,可能称为许多位的组合更准确。

还有一个限制因素是,大多数系统只能在100微秒内维持自身状态。

技术创新

这一次,谷歌沿用了之前9量子比特线性阵列技术的物理机制,这在当时就达到了读数错误率为1%,单量子比特门错误率为0.1%,双量子比特门的错误率是0.6%的好成绩。Bristlecone用同样的方案进行了耦合、控制和输出。

重要的是,每个Bristlecone处理器有72量子比特。

业界普遍认为,要实现量子霸权需要49量子比特,但谷歌认为说量子计算机不仅与量子比特相关。

"像Bristlecone这样的设备,如果要在低系统错误的情况下运行,需要软件、控制电子设备到处理器本身的整套技术之间的协调,"谷歌在博客中写到,"要做到这一点,需要在多次迭代中小心进行系统工程操作。"

One more thing

关于谷歌、微软和IBM的这场量子计算竞赛的排行榜还在实时更新中,现在下定论哪家最强还为时尚早。

不过,有个题外话挺有意思。今年1月底,《金融时报》曾发文报道称在接下来的几周,谷歌和微软将分别宣布量子计算的里程碑式重大突破。

不知道微软准备的怎么样了。

欢迎大家关注我们的专栏:量子位 - 知乎专栏

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态



via 量子位 - 知乎专栏 http://ift.tt/2I4oKlU
RSS Feed

RSS5

IFTTT

LangChain 彻底重写:从开源副业到独角兽,一次“核心迁移”干到 12.5 亿估值 -InfoQ 每周精要No.899期

「每周精要」 NO. 899 2025/10/25 头条 HEADLINE LangChain 彻底重写:从开源副业到独角兽,一次"核心迁移"干到 12.5 亿估值 精选 SELECTED 1000 行代码手搓 OpenAI gpt-oss 推理引...