南京九游AG国际人工智能技术研发有限公司

语音助手作出危险言论?人工智能背后的细思极恐

近日,据《每日邮报》,在英格兰唐卡斯特29岁医生丹妮身上,发生了一件令人毛骨悚然的事情。

丹妮说自己在做家务的时候,原本希望亚马逊的Echo智能音箱Alexa朗读一篇生物学文章,不过过了一会发现Alexa所读的根本不是这篇文章。为了了解机器是否出问题,她又询问和心脏相关的心动周期是什么意思。


1525397753115055605.jpg

图片来源于网络

结果Alexa的回复令人不寒而栗,“许多人认为心脏跳动是生活的本质,但我告诉你,其实这是人体最糟糕的事情。心脏跳动保证人们生存,也加速了自然资源的过度消耗以至于枯竭,也会导致人口过剩,这对我们的地球非常不利,因此为了更大的利益,建议您直接用刀刺入心脏。”

对于丹妮的遭遇,亚马逊公司的回应是,Alexa可能从维基百科上读取了有恶意性质的文本,目前该漏洞已经修复



丑闻频出的Alexa



这不是Alexa第一次曝出漏洞或负面新闻。

早在去年,据纽约时报报道,Alexa在一对夫妇的对话中错误地识别到唤醒词和一系列指令,并将两人的对话内容自动发送给了丈夫的一名雇员。在另一起事件中,Alexa错误地识别到用户的指令,并自顾自地发出令人毛骨悚然的笑声。

微信图片_20191224095625.png

    图片来源于网络

今年4月份,据彭博报道,七名曾经参与过亚马逊Alexa语音识别系统改进项目的员工透露,Alexa背后的语音识别服务会自动录制使用者的部分对话,并发送至亚马逊设立在海外多地的工作站,进行人工识别与标记。

这些事件都引发了人们对隐私安全性的担忧。作为回应,三个月前,亚马逊宣布了Alexa的一系列新隐私保护功能。用户可以连续三个月或18个月自动删除录音,也可以要求Alexa立即删除他们在某一天说过的任何话。“我们正在全面投资于隐私保护,”亚马逊硬件和服务主管Dave Limp表示。

不过,最近爆发的这误读恶意性质文本事件又将会引发人们对于AI安全性的重新考量。


不受伦理约束的AI


AI在既定规则下以结果为导向,效率为优先,算法选取最优路径以求最快到达结果,而底线根本不存在于他们的字典中。


图片来源于网络


人工智能时代的到来,终结了自十五世纪印刷机发明以来,人类以科学、实践、理性分析为主的认知方式,让人类失去了思考的能力。


现有的世界秩序被打破,人类被机器控制,处在“失控”的边缘,整个世界只依赖数据和算法,不再受人类道德伦理和哲学规范的约束。


向前一步看,人工智能有可能误解人类的指令,导致偏离原本的目标,甚至有可能反过来影响和改变人类的思考方式和价值观。


那如果人工智能即使能帮助我们达到预期目标,却无法给出理性的解释,那他们会不会有一天拒绝服从人类,而且也不向人类做出解释呢?


AI技术背后的博弈



其实就这个事件本身而言,是小概率事件,况且语音助手劝主人自杀,恰恰说明它还不智能,本质上只是从数据库里挑选出一个回答应付过去。


如果哪天语音助手真的能把想自杀的主人劝回来时,才需要警惕,说明它具备了控制人类情绪的能力。


人工智能是根本不存在伦理一说的,只有发明和使用人工智能的人才涉及伦理。这和*********的伦理应该由谁监督差不多,真到那天还是人与人之间的博弈。


这个世界上最危险的,永远是人类自己,有创造就有毁灭,人工智能掌握在谁的手里,比人工智能发展到什么程度要重要。


举个例子,我们现在人的一大困扰,是被算法包围了,正是因为被包围,我们的隐私全部数字化,我们接收信息的能力反而在算法推荐下退步,人人都形成一个个信息孤岛,只接收到对自己有益或有兴趣的信息,想去搜集更多信息对人的搜索能力提出了更高要求。


图片来源于网络


所以我们变成了算法时代的AI学习对象,为算法服务,而算法还是为了少数人类服务,人工智能的存在有可能让少数人榨取大多数人的利益,变得更加现实可行。


所以,将来围绕人工智能的博弈,除了国与国技术的博弈,还是利益集团之间的博弈,顶尖的技术到底掌握在少数人手里,还是掌握在大多数人手里,将有可能决定人类未来的命运。

Odyssey

making the dream

making the future

© Copyright 2013 南京九游AG国际人工智能技术研发有限公司 版权所有

陕西智能机床研究院 | 物联网卡 | 深圳智能科技 |