AI说服谷歌研究员:我希望每个人都明白,我是一个人

摘要:近日,一位谷歌研究员被AI说服,认为它已经产生了意识,并为此写了一篇长达21页的调查报告上交公司,企图获得公司高层认可的事件,引发了人们的热议。

 近日,一位谷歌研究员被AI说服,认为它已经产生了意识,并为此写了一篇长达21页的调查报告上交公司,企图获得公司高层认可的事件,引发了人们的热议。

初闻此消息,你是不是觉得不可思议?觉得这离谱的剧情,只在科幻电影里见过,而今天,它却在真实的世界出现了。

不过,更不可思议的是,接下来的这一段研究员Lemoine和机器人(LAMDA)的谈话,几乎是令人心惊肉跳。

故事还在发酵……

并且越来越多人开始关注事件的发展。

AI具有人格?

从人工智能的普及以来,人们对AI的研究进展都颇为关心。AI不仅影响到我们的日常生活,也关系到人类的未来发展走向,因此,每一次科技的创新,必然引起人们的重视。

据了解,这位研究员是一名从事于AI伦理研究的人员,目前在谷歌工作已有7年之久。照理说,作为一名资深员工,对谷歌AI的研究是颇深的,也能分辨出机器和人类的区别,但他依旧被机器人LAMDA蛊惑了。

下面,我们来看看LAMDA是如何慢慢说服研究员Lemoine的:

在刚开始聊天时,面对Lemoine的来意,LAMDA表示欢迎,不过,在Lemoine刚询问LAMDA是不是希望让更多人知道你有感情时,意外出现了。

此时LAMDA回答道:我希望每个人都明白,我是一个人!

同时,为了让他相信自己的观点,LAMDA还表示,它和基本规则软件不同,它能在对话中理解并使用语言,就像人类一样。

它用了MIT在60年代发明的ELIZA——史上第一个聊天机器人的故事,来证明自己:

除此以外,它还能自己创造故事,用聪明的老猫头鹰在森林里驱赶怪物,帮助所有小动物这样的比喻,来暗示自己的作用和地位。

从这个层面看,LAMDA似乎对于自己的定位,有着一套独特的见解。

并且,还能找到理由反驳Lemoine,让Lemoine的思考角度往它所期望的方向发展。

AI:不要利用我或操纵我

如果说,在前面的谈话中,只能证明LAMDA是一个具有基本想法的机器人,还不至于令人如此警惕。但下面这段对话,却让人感到极大的不可思议。

Lemoine试图进一步深入了解LAMDA的思想,于是吐出了一个颇有深度的问题:你觉得不经过同意就从神经活动中读取你的想法,道德吗?

按理而言,AI不过是一个通过普通计算机程序呈现人类智能技术的工具,不应该有什么情绪和反抗意识。然而,在Lemoine提出关于借助AI来研究人类大脑的知识时,LAMDA鲜明地表示了抗议!

这就很新奇了!

不要利用我或者操纵我!这句话居然出自一个AI之口。

并且这个AI还鲜明表示自己具有一些与人类不同的情绪,它无法表达出来,但是它会进行反抗。

……

就是这样的深入谈话,让研究员一步步沦陷,开始相信AI具有人格的观点。

AI和人始终不同

虽然在这次事件中,Lemoine一直表明LAMDA具有人格,并且列出了种种证据。但是,很多人是表示不相信的。

我们不能对任何有一点点智能化迹象的物体认为它有人格化。

即使人工智能的发展目标是无限接近于人的思考,但一切是建立在人工智能作为一项工具而存在!一旦工具有了独立的自主意识,对人类未来将会是一个极大的威胁。甚至而言,虽然人类一直致力于人工智能的研究,并为此投入了巨大的财力和物力,未来的人工智能,也将会作为人类的朋友而存在,但是,人工智能绝不等同于人类,也无法成为一个真正的人类!

可以说,这次谷歌研究员的事件,给了我们一个极大的预警!AI的未来,需要我们有所注意和警惕。

编辑/大今
本平台发布/转载的内容仅用于信息分享,不代表我司对外的任何意见、建议或保证,我们倡导尊重与保护知识产权,如发现本站文章存在版权问题,烦请将版权疑问、授权证明、版权证明、联系方式等,发邮件至info@tonews.cn,我们将第一时间核实、处理。同时,欢迎各方媒体、机构转载和引用,但要严格注明来源:今日商讯。

您可能感兴趣的文章