手机版    二维码   标签云  厨具企业大全

人工智能:会拒绝人类的机器人更安全

2024-06-13 16:04 来源: 作者/编辑: 浏览次数:3478 手机访问 使用手机“扫一扫”以下二维码,即可分享本文到“朋友圈”中。

人工智能有可能危害人类安全已经成为了很多科学家的“共识”,在这种情况下,如何开发安全的人工智能就成为了不少研究人员的课题,近日《科学美国人》网站有文章表示,学会拒绝人类指令的人工智能机器人更安全,因为人类总会发出不当或恶意指令,如果不能分辨出那些式不当或恶意的指令,或者不能正确理解人类的指令,那么人工智能将对人类带来极大的威胁。

发表文章的研究人员表示,他们非常关注人工智能对日常生活的影响,他们认为在不久的将来,有实用价值、具备合作能力的机器人会在多种场合与人类互动。目前已经有基于语音命令的个性化机器助手出现,它们可以监控并调用个人电子设备,管理家中具有物联网功能的设备,甚至可以为小孩讲睡前故事。在不久的将来,能够协助做家务,照顾失能人士的机器人将出现;能够完成简单生产线工作的机器人也在开发中;而具有自动驾驶功能的汽车已经在美国的道路上行驶了数百万公里。

目前看来人工智能对整个人类造成生存问题实在过于遥远,相比较而言,如何防止具有人工智能的机器“无意间”对人类、财物、环境或自身造成伤害。

大多数和工具有关的损失并不是由工具的责任,而是不当使用工具造成的,也就是说是人的错误。如果将人工智能当作一个高级的工具看,那么犯错的风险也主要集中在人类身上,人工智能大多数时候不过是在执行人类错误的指令。如此看来,教会人工智能正确判断情况,合理拒绝人类才是正确的做法。

在未来,随着人工智能的不断进步,它们与人类交互的机会将越来越多,但通过语音获得指令对于他们来说仍是一种挑战。人类日常生活中使用的语言大多是非常模糊的,即使经过严格的语言和逻辑训练的人所说出的话也充满了歧义和矛盾。但是人类自己可以结合语境、环境和经验等因素理解对方的语言,并在适当的时候提出质疑。

如果机器人不具有类似的能力,那么毫无疑问它们会变得非常危险,甚至像一个利用你语言漏洞故意找茬的“问题员工”。但是单纯增加机器人推理能力也并不能解决问题,在能分辨什么时候该拒绝人类之后,如何与人类交互,以巧妙的方式拒绝人类的错误指令,并引导人类给出正确指令就成为人工智能的另一项挑战。

机器人的行为比人类更容易预测,这虽然方便了人类使用机器人,但也带来了风险,因为行为高度可预测的机器人非常被人类误导,做一些损害别人利益的行为。在这种情况下,人工智能的判断力就非常有价值了。

随着人工智能能力的提高,机器人人格化会越来越明显,这种人格魅力会引发人类对其付出过多的感情,而这种感情是一种单方面的感情,这不但有可能没有回报,还会给控制机器人的机构可以用前所未有的方式控制人类。

使用工具是人类与世界交互的重要工具,而人工智能是人类历史上最强有力的工具。这种工具在为人类带来便利以外也带来了风险,人类必须以更加负责的态度去使用机器人。在设计上应该把安全性放在更重要的位置,让机器人学会为了安全拒绝人类的错误指令。

转载:中国机器人网(原始来源:评论:0)

以上是网络信息转载,信息真实性自行斟酌。

 
本文标题:人工智能:会拒绝人类的机器人更安全
本文网址:
版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

文本助手 资讯搜索 分享好友 打印本文 关闭窗口
  • 手机浏览本文

    手机应用中扫描本文二维码,即可浏览本文或分享到您的社交网络中。

  • 微信公众号

    扫描二维码,关注中华厨具网微信公众号,实时了解行业最新动态。

今日热点文章更多
品牌聚焦更多
推荐品牌更多
热门频道
关闭广告
合作伙伴:
中华厨具网 鲁ICP备2021046805号         鲁公网安备 37162502000363号 (c)2018-2026SYSTEM All Rights Reserved 投资有风险 加盟需谨慎
关闭广告
关闭广告