手机版    二维码   标签云  厨具企业大全

毛骨悚然!亚马逊人工智能助手劝人自杀

2024-05-14 12:20 来源: 作者/编辑: 浏览次数:9267 手机访问 使用手机“扫一扫”以下二维码,即可分享本文到“朋友圈”中。

近日,多家外媒报道称,一位使用亚马逊语音助手alexa的用户danni morritt,在询问心动周期的问题时,竟然得到了如下答案:

“心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。”

雷锋网截图自外媒mirror

这一回答吓坏了danni,表示十分害怕,因为alexa正身处在世界各地成千上万的家庭中。她警告身边的人alexa有严重的安全缺陷,并担心孩子们可能会遭受暴力或图像内容的伤害。danni表示:“alexa真的非常残酷,它竟然告诉我要刺入心脏,这太暴力了。我只是为自己的课程学习一些知识,结果被告知要自杀。我简直不敢相信。我被吓坏了。”

尽管danni在网络中公开指出了这一问题,但仍有人怀疑是她篡改了该设备

很快,亚马逊回应称,确认存在一个已经修复的bug。alexa可能从任何人都可以编辑的维基百科上下载了有恶意性质的文本。

在此之前,alexa还出现过很多所谓的bug。

比如,alexa时常发出瘆人的笑声,还拒听用户指令。“那笑声根本不是alexa的声音,听起来就像是真人。”

再比如,美国的一对夫妇,发现自己的对话被音箱录音,并且发送给了其他人。

对此亚马逊给出的解释是可能用户的谈话中出现了某些指令的关键词,被alexa识别到了。

实际上,语音助手监听用户说话声音在行业内已经并不是秘密。

今年4月,彭博社报道称,亚马逊员工正监听用户与语音助手的私人聊天,对此亚马逊承认了监听的事实,并回应称是为了提高对人类语音的理解能力。

实际上,此前为了让alexa看起来更人性化一点,亚马逊更新了功能,宣布语音助手将能够在一些语句中添加语调,表达失望或兴奋等情绪。

ai让我们享受随意而来的高效与便利之余,为什么想要为消费者提供便利的智能助手频频让人类用户不舒服?究竟谁能为此买单?

来源:雷锋网

以上是网络信息转载,信息真实性自行斟酌。

 
本文标题:毛骨悚然!亚马逊人工智能助手劝人自杀
本文网址:
版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

文本助手 资讯搜索 分享好友 打印本文 关闭窗口
  • 手机浏览本文

    手机应用中扫描本文二维码,即可浏览本文或分享到您的社交网络中。

  • 微信公众号

    扫描二维码,关注中华厨具网微信公众号,实时了解行业最新动态。

今日热点文章更多
品牌聚焦更多
推荐品牌更多
热门频道
关闭广告
合作伙伴:
中华厨具网 鲁ICP备2021046805号         鲁公网安备 37162502000363号 (c)2018-2026SYSTEM All Rights Reserved 投资有风险 加盟需谨慎
关闭广告
关闭广告