智能助手劝人自杀,3D面具攻破人脸识别,AI技术的安全边界在哪里?

后台-系统设置-扩展变量-手机广告位-内容正文顶部
很多时候,AI的背后是人类而不是算法。
 
仅仅把安全的期望寄托在一家公司的自律和道德上,最后往往都会成为不切实际的幻想。 
 

一位使用亚马逊语音助手Alexa的用户Danni Morritt,在询问心动周期的问题时,竟然得到了这样的答案:
 
“心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。”
 
作为目前全世界最畅销的语音智能助手,Alexa正身处在世界各地成千上万的家庭中。被吓坏的Danni告诉身边的人Alexa有严重的安全缺陷,并担心孩子们可能会遭受暴力或图像内容的伤害。Danni表示:“Alexa真的非常残酷,它竟然告诉我要刺入心脏,这太暴力了。我只是为自己的课程学习一些知识,结果被告知要自杀。我简直不敢相信。我被吓坏了。”
 
很快,亚马逊回应称,确认存在一个已经修复的bug。原因是Alexa可能从任何人都可以编辑的维基百科上下载了有恶意性质的文本。 
 

如果说亚马逊的bug还只是一个容易修复的“意外”,那么下面这则消息则令人有些不寒而栗的惊悚:今年以来火爆一时的刷脸支付终于被完整破解了。
 
这是一家名叫耐能的美国AI公司,由华人创办且曾获得过阿里的投资。在一家外媒曝出的未公开发布的视频中,耐能公司让测试人员头戴特制3D面具进入商店购物,核心检验其中的刷脸支付中国方案。在刷脸支付时,支付终端竟真的将面具识别为真·人脸,测试人员“盗刷”成功。

而且不管是支付宝,还是微信,刷脸支付终端通通中招。不仅如此,据称耐能的测试人员还戴着面具,顺利通过了中国火车站的人脸识别闸机。
 
这种已经被大范围商业应用的刷脸技术就这样被轻易破解,给普通人带来的是无尽的焦虑和担忧,面部信息的泄露,资金损失的可能性,以及由此引发的种种麻烦……
 
但是,目前可以肯定的是,这种担心短期内还不会变成现实。因为这一测试还存在明显的局限性。比如从视频上很难看出3D面具是否每次都有效。由于视频中仅有一个面具出镜,也不确定换个人换个面具是否还能“攻破”人脸识别系统。
 
另一方面,就是这种3D面具的造价还十分昂贵,每个面具的定制价格高达2650美元(约合1.8万人民币)。其次就是面具的整个制作过程工序是非常复杂的。
 
并且值得注意的是,现在市面上的人脸识别系统都不仅仅是靠面部识别来完成身份认证的,比如火车站的人脸识别闸机就还需要身份证的辅助确认。
 
因此,支付宝和微信也在公开的声明中,宣布其刷脸支付技术的成熟性和可靠性值得信赖,并且有多种方案抵御伪造的人脸识别安全攻击。可以有效抵御视频、纸片、面具等攻击方式。同时,还会有最后一步安全方案,就是客户一旦被盗刷后的解决方案:全额赔付。
 
但这些科技巨头无法给出斩钉截铁的承诺:刷脸支付系统可以防御3D面具。
 
所以3D面具攻破刷脸支付,究竟值不值得担心?这又是一个矛与盾的古老话题。无论多么坚不可摧的盾,总会有人造出更锋锐的矛来刺破它。
 
作为攻破方的耐能公司则公开表示,他们的这个试验只是想证明一件事情:这个结果只是想表明某一些面部识别技术并未达到足够高的安全标准,对用户隐私产生了威胁。现有的技术足以解决这些问题,但许多公司并没有进行技术升级。走捷径的代价就是牺牲安全。
 
很久以来,有一个观点很流行: 很多人为了换取方便和便捷而愿意作出一些个人隐私上的牺牲。 这种观点真的正确吗?
 
在这里,有必要回顾一下今年早些时候的亚马逊“监听门”事件。亚马逊的Alexa在智能语音助手领域一直打遍天下无敌手,遥遥领先其他企业的相关产品。然而,在用户毫无戒备之心地享受Alexa带来便利的同时,一些工作正在秘密地进行。
 
 
 

今年上半年,有媒体爆出亚马逊公司在全世界范围内雇佣了许多评审员来提升Alexa的服务功能,然而,这个巨大团队并不负责技术改进,而是负责收集用户对Alexa发出的指令,并作出相应的反馈。
 
事实上,这些评审员的工作就是实时监听Alexa的录音。而且,即便是用户禁用了Alexa的语音记录功能,这些用户的语音记录还是会传送给评审员进行分析。更加恐怖的是,这些评审员居然还可以获知用户的家庭地址,甚至包括姓名和电话号码。如果用户选择与Alexa共享自己的联系人,这些联系人的相关信息也会出现在评审员的操作界面。
 
虽然,暂时还没有迹象表明,评审员试图利用这些信息来追踪用户,但是,人们还是担心这种不必要的访问权限会让情况失控。在这之后,亚马逊采取了一些补救措施, 进一步限制了用户信息的访问权限,但是,亚马逊一直以来努力塑造的良好的公众形象却不可避免地出现了滑坡。
 
正如一位AI专家所说,看上去那些聪明的智能语音助手在进行神奇的机器学习。但实际上,它们还无法脱离人类独立工作。很多时候,AI的背后是人类而不是算法,因为建立一个良好的AI系统需要大量数据。但是,商业公司如何去收集这些数据的行为却 很容易违反人类的道德原则。
 
电影《生化危机》中描述的末日世界就是一个极端的例子。那个邪恶的大反派保护伞公司最初的科研目的也很善良很简单,只是为了救治无辜的生命,但后来却被利用来研制大规模生化武器,最终导致了一场全球性的大灾难。
 
因此,很多科技巨头多年来都不吝为自己贴上“道德高尚”的标签。
 
例如谷歌,尽管其近年来正越来越多地在欧美遭遇“反垄断”调查和不断被处以巨额罚款,但其早期广为人知的“不作恶”的企业文化确实为它占领社会道德的制高点作出不少贡献。
 
再如大名鼎鼎的机器人公司波士顿动力,旗下刚刚投入商用的机器狗在世界各地都大受欢迎。公司高层最近也明确向外界表示了公司的底线,他们的机器狗也会提供给军方使用,  军方也可以利用机器狗去获取信息,处理危险环境等等。但不允许给机器狗装备武器,去伤害或恐吓别人。
 
但这种自我标榜的自律往往都缺乏公信力,现在,许多国家都在通过立法去划定AI技术的安全边界。美国最近刚刚通过了一项《机器人电话滥用犯罪执法威慑法案》。这项法案规定,用AI自动打骚扰电话会被处以每通电话最高10000美元,也就是7万人民币的罚款。这项法案的背景是近年来AI骚扰电话在美国已经成了严重的问题。
 
在中国,针对AI技术的立法限制和规范也在热烈地讨论之中。今年4月, 全国人大常委会审议的《民法典人格权编(草案)》里,正式加了一条:任何组织和个人不得以利用信息技术手段伪造的方式侵害他人的肖像权
 
AI技术的飞快发展确实可以造福更多人,但有关它的安全边界的讨论和监管也是必 要的,因为仅仅把安全的期望寄托在一家公司的自律和道德上,最后往往都会成为不切实际的幻想。

 

未经允许不得转载:RPA中国 | RPA全球生态 | 数字化劳动力 | RPA新闻 | 推动中国RPA生态发展 | 流 > 智能助手劝人自杀,3D面具攻破人脸识别,AI技术的安全边界在哪里?

后台-系统设置-扩展变量-手机广告位-内容正文底部