圆栗子 发自 凹非寺 量子位 出品 | 公众号 QbitAI
上个星期,马斯克 (Elon Musk) 刚刚带领一众AI专家,签订了一份承诺书。
内容是,永不开发自主杀人武器 (Lethal Autonomous Weapon Systems)。
理由有二。一,不该把生杀大权交给机器。二,致命AI武器的存在,会让国家和个人承受危险的动荡。
意图自然是好的,但牛津大学的学者Mariarosaria Taddeo (简称玛利亚) 说,他们忽略了一个重点。
而且,把万众目光集中在"AI杀手"上,人们就更难注意到那个重点了。
表面"静止"
智能机器人统治世界,支配人类,这样的极端场景,的确非常吸引眼球。
但那并不是AI技术唯一的隐患。
美军曾经把AI分成两种:一是移动的 (AI in Motion) ,二是静止的 (AI at Rest) 。
前者表示依托于实体机器人的AI,后者表示仅仅存在于软件系统的AI。
美国海军有自动驾驶的军舰,以色列有自主识别、打自主击目标的无人机,这些军用设备里的AI,是移动型。
但战争并非只有硬碰硬,比如,网络世界 (Cyber Space) 就从不和平。
玛利亚觉得,后者才更需要重视,"静止"也不代表不危险。
暗潮汹涌
网络世界里,大大小小的国际争端,可能每天都在发生。
今年3月,美国谴责了俄罗斯,说对方几个月来,一直攻击美国关键的基础设施。
这样的话,事情就不像WannaCry抢比特币那样简单。
如果,有人能利用AI,造成全国范围的停电,或者供暖系统瘫痪,就可能导致非常严重的后果。
虽然,还没有发现AI直接造成物理伤害的事件,但不代表以后也不会有。毕竟,AI正在飞速普及。
玛利亚说,社会的运转越依赖AI,系统之间的冲突越可能带来物理伤害。
AI与AI之间,有了自主打击、自主防御行为,就算没有实体机器人,局面还是可能失控。
一线之隔
现在,许多国家都在建立自己的AI网络防线。
玛利亚说,"网络军备竞赛 (Cyber Arms Race) "可能就要开始了。
可是,防御与攻击,仅一线之隔。
现在,国际上依然没有法规,能够规范网络防御 (Cyberdefence) 行为。
早在2004年,联合国就成立了信息安全政府专家组 (Group of Governmental Experts on Information Security) ,目的便是达成共识,用统一的法条来规范各国在网络空间里的行为。
然而,会开了很多次,共识到今天都没有达成。
今年4月,玛利亚的一篇文章在Nature上发表。她写道,网络防御要三步走——
第一步,划定法律界限。
第二步,在友好邦国之间,测试防御策略。
第三步,建立监管机制,强化法规执行。
她给每一步,都描绘了一些合理的设想。
不过,还不知道这个世界,哪天能走出第一步。
Nature文章传送门:https://ift.tt/2ObnGzP
— 完 —
欢迎大家关注我们的专栏:量子位 - 知乎专栏
诚挚招聘
量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。
量子位 QbitAI· 头条号签约作者
վ'ᴗ' ի 追踪AI技术和产品新动态
没有评论:
发表评论