人工智能、机器学习、深度学习、贝叶斯统计、强化学习、生成式对抗
她补充说,「YouTube 需要对其内容进行充分的分级,而不是进行过度的艺术审查——他们需要人性化地管理我们的账号。」然而 YouTube 甚至无法妥善管理那些水平最高的内容创作者,也就是那些所谓的「YouTube 明星」。当 YouTube 的创作明星 Logan Paul(谷歌广告平台上的一位首选合作伙伴)上传了一段自己在自杀者遗体旁边开玩笑的视频时,我们究竟应该批评谁?Paul 确实要管理自己的良知。但是对于这种行为的谴责必须要超越个人层面,因为这些个人是被平台的奖励系统所诱导,才去创作了这些「极大丰富了谷歌内容」的视频的。在 Paul 的例子中,不止有自动系统对他发布的内容进行了审查,YouTube 工作人员手工审查并通过了他的视频。因此,即使 YouTube 声称其内容会经过人工审查,这些审查人员似乎也没有足够的时间和足够强大的工具来支持他们做好这项工作。考虑到这项任务的难度,这也不足为奇。谷歌表示,今年将会把执行评分审核和担任其它审查执行任务的人员增加至 10000 人。然而,这个数字比起上传到 YouTube 上的视频数量来说,简直是九牛一毛。(据 Statista 统计,2015 年 7 月,每分钟就会有 400 小时时长的视频被上传到 YouTube 上;现在这一数据轻易达到了每分钟 600/700 小时。)YouTube 这一免费上传内容平台的庞大规模,也使得它不可能「控制」自己的影响力。当平台的巨大规模、普遍存在的记录机制和个性化精准定向技术同时赋予其影响和塑造整个社会的力量时,这个问题就天然存在了。YouTube 表示,其平台覆盖了超过 10 亿用户,占整个互联网用户的三分之一。另外,谷歌对其算法进行的内容管理以及产生的社会影响持有的「不干涉」态度,说得好听点儿,也是值得怀疑的。事实上,连 YouTube 自己的员工都认为其算法具有极端主义倾向。同时,YouTube 还被指控「从根本上自动化了网络的极端化过程」,将观众推向越来越极端和仇恨的观点。点击一个民粹主义右翼评论家的视频,然后看几个算法推荐的相关视频,不久你就会被推向新纳粹仇恨组织。公司声称会修复这个人工智能极端主义的问题?然而他们还是在创造更多的人工智能 ...呵,这就是人工智能支持的平台,看看它都做了什么,抓取并放大假新闻,加速憎恨、激励社会走向病态。而所谓的人工智能支持的评级系统,它太笨了,根本做不到像人类那样判断语境并理解其中细微的差别。(或者说,只有给了足够的时间思考,它们才能做到这一点。)Zuckerberg 本人在一年前,也就是 Facebook 面临的危机规模开始变得明朗的时候曾经说过,「值得注意的是,人工智能首先需要对文本、照片和视频等进行理解,才能判断这些信息否含有憎恨言论、图片暴力或是色情内容。」以及「依照我们目前的研究进度来看,我们希望能在 2017 年开始着手处理一些案例,但是对于其他案例,我们在很多年之内是无能为力的。」当他说「很多年」,这位科技公司 CEO 的真正意思就是,「我们可能永远无法在工程上实现这一点。」如果你参与过讨论内容审核这种非常难、非常社论化的问题,你会知道,相比之下,确定什么是恐怖主义简直是小菜一碟。别说理解讽刺性作品了——仅仅了解某内容究竟是存在某种内在价值,还是一段仅仅是由算法剪辑而成的垃圾都十分困难。实话说,我根本不指望可以做到这一点的机器人出现。特别是在各个领域的人们都还在呼吁科技公司展现更多的人性的时候,我更加不会报这种希望了。要知道,现在科技公司还在试图强加给我们更多的人工智能呢。
「每周精要」 NO. 848 2024/09/21 头条 HEADLINE JavaScript 之父联手近万名开发者集体讨伐 Oracle:给 JavaScript 一条活路吧! 精选 SELECTED C++ 发布革命性提案 "借鉴"Rust...
没有评论:
发表评论