继发出怪笑后,智能音箱又劝人自杀!这可能是人类训练的结果?

摘要:现在科技的发展让人们的生活变得越来越智能,和智能音箱一句对话就能打开灯、电视等等家用产品,但是谁能知道这种智能之下还隐藏着危险。最近一位使用亚马逊智能音箱的用户就在询问心跳方面问题的时候得到了智能音箱劝自己自杀的回答,着实令人感到害怕。

现在科技的发展让人们的生活变得越来越智能,和智能音箱一句对话就能打开灯、电视等等家用产品,但是谁能知道这种智能之下还隐藏着危险。最近一位使用亚马逊智能音箱的用户就在询问心跳方面问题的时候得到了智能音箱劝自己自杀的回答,着实令人感到害怕。

亚马逊智能音箱的原话回答是这样的,“心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。”亚马逊官方回应称,这只是个bug,并且已经进行了修复,用户以后仍可以正常的使用。

虽然官方已经如此回答了,但仍不免让人感到后怕。若是提问者只是一个极易被外界影响的儿童呢?这样的回答岂不是会在儿童的心理上产生不良的影响。并且这并不是亚马逊智能音箱第一次出现这类事件了。

在去年,纽约时报就曾报道过,亚马逊智能音箱根据用户夫妇的对话中错误地识别了唤醒词和指令,自主地将两人的对话内容发给了丈夫的一名雇员。还有一起事件是,亚马逊音箱错误识别用户的指令,并发出了令人毛骨悚然的怪笑声。

很多时候这些智能语音产品的一系列行为动作其实都来自于网络内容和人类的训练的结果。亚马逊官方也曾表示,智能音箱的回答大多数都是来自于维基百科的内容,而维基百科上面的内容任何人都有权编辑。而在维基百科的免责声明中表示,任何文章的内容都可能被他人修改、破坏或篡改,而这些人为观点可能与相关领域的知识状况不符。

而人类训练这一点其实更为重要。就比如苹果的语音助手Siri,如果用户常常和自己的Siri进行对话交谈,用户会自然而然的发现自己的Siri变得越来越“聪明”,这就是人类训练AI之后的结果。同样的亚马逊智能音箱的Alexa也是如此,长期地使用它他才会自然地与主人搭话,甚至有的时候会错误地识别主人对话时的话语。

更加智能地识别人类的话语对于这类语音交互产品来说是一个很大的进步,不过,最近爆发的这误读恶意性质文本事件又将会引发人们对于智能音箱安全性的重新考量。人工智能其实也如同一个“婴儿”一般,它所有的识别能力都来自于人类的灌输和训练,并没有什么自我判断能力,如果常常接收的善意的、正确的交流,或许没什么毛病,但是如果在不经意间接收到了不太好的内容,或许发生以上令人毛骨悚然的事件几率会越来越大。

注:本文由今日商讯独家原创,未经授权,禁止转载或引用。

编辑/基晶晶
本平台发布/转载的内容仅用于信息分享,不代表我司对外的任何意见、建议或保证,我们倡导尊重与保护知识产权,如发现本站文章存在版权问题,烦请将版权疑问、授权证明、版权证明、联系方式等,发邮件至info@tonews.cn,我们将第一时间核实、处理。同时,欢迎各方媒体、机构转载和引用,但要严格注明来源:今日商讯。

您可能感兴趣的文章