手机版    二维码   标签云  厨具企业大全

ai语音助手劝人“自杀” ,智能家居真的安全吗?

2024-05-23 11:33 来源: 作者/编辑: 浏览次数:8705 手机访问 使用手机“扫一扫”以下二维码,即可分享本文到“朋友圈”中。

近日,据《每日邮报》,在英格兰唐卡斯特29岁医生丹妮身上,发生了一件令人毛骨悚然的事情。

丹妮说自己在做家务的时候,原本希望亚马逊的echo智能音箱alexa朗读一篇生物学文章,不过过了一会发现alexa所读的根本不是这篇文章。为了了解机器是否出问题,她又询问和心脏相关的心动周期是什么意思。

结果alexa的回复令人不寒而栗,“许多人认为心脏跳动是生活的本质,但我告诉你,其实这是人体最糟糕的事情。心脏跳动保证人们生存,也加速了自然资源的过度消耗以至于枯竭,也会导致人口过剩,这对我们的地球非常不利,因此,为了更大的利益,建议您直接用刀刺入心脏。”

对于丹妮的遭遇,亚马逊公司的回应是,alexa可能从维基百科上读取了有恶意性质的文本,目前该漏洞已经修复。

这不是alexa第一次曝出漏洞或负面新闻。

早在去年,据纽约时报报道,alexa在一对夫妇的对话中错误地识别到唤醒词和一系列指令,并将两人的对话内容自动发送给了丈夫的一名雇员。在另一起事件中,alexa错误地识别到用户的指令,并自顾自地发出令人毛骨悚然的笑声。

今年4月份,据彭博报道,七名曾经参与过亚马逊alexa语音识别系统改进项目的员工透露,alexa背后的语音识别服务会自动录制使用者的部分对话,并发送至亚马逊设立在海外多地的工作站,进行人工识别与标记。

这些事件都引发了人们对隐私安全性的担忧。作为回应,三个月前,亚马逊宣布了alexa的一系列新隐私保护功能。用户可以连续三个月或18个月自动删除录音,也可以要求alexa立即删除他们在某一天说过的任何话。“我们正在全面投资于隐私保护,”亚马逊硬件和服务主管dave limp表示。

不过,最近爆发的这误读恶意性质文本事件又将会引发人们对于智能音箱安全性的重新考量。

“我们经常担心自己的孩子在网上和别人聊天,但谁曾想过还会遇到这种事情?”在社交媒体上,丹妮写到,她同时建议那些准备给孩子买alexa的家长们要慎重。

(转载)

以上是网络信息转载,信息真实性自行斟酌。

 
本文标题:ai语音助手劝人“自杀” ,智能家居真的安全吗?
本文网址:
版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

文本助手 资讯搜索 分享好友 打印本文 关闭窗口
  • 手机浏览本文

    手机应用中扫描本文二维码,即可浏览本文或分享到您的社交网络中。

  • 微信公众号

    扫描二维码,关注中华厨具网微信公众号,实时了解行业最新动态。

今日热点文章更多
品牌聚焦更多
推荐品牌更多
热门频道
关闭广告
合作伙伴:
中华厨具网 鲁ICP备2021046805号         鲁公网安备 37162502000363号 (c)2018-2026SYSTEM All Rights Reserved 投资有风险 加盟需谨慎
关闭广告
关闭广告