手机版    二维码   标签云  厨具企业大全

机器人要学会对人类说“不”

2024-06-12 11:36 来源: 作者/编辑: 浏览次数:4495 手机访问 使用手机“扫一扫”以下二维码,即可分享本文到“朋友圈”中。

不管别人让你做什么,你都会去做吗?所有人都会说:当然不!那未来的机器人应该总是听我们的吗?乍一看,你可能会觉得应该——就因为它们是机器,听从我们的指令就是它们存在的意义。但再仔细想想,你在选择执行任务时,也并非不经大脑。所以,机器人也和你一样。

试想一下:一位年迈又健忘的用户让他/她专门照顾老年人的机器人把刚刚洗好的衣服再丢到洗衣机里去;一个幼儿园的小朋友命令机器人把球扔到窗外;一名学生让机器人帮她完成所有的家庭作业;一个处于忙乱之中的主人,指示料理家务机器人运行垃圾处理器,即使勺子和小刀还卡在里面。

像这样,对机器人进行不恰当指令,但并未造成实质性损害的例子还有许多。但并不是所有案例都是良性的,即使机器人的主人在下达命令是出于好意。

想象一下,一个机器人汽车根据指令在车道上倒车,但它后面却有一只小狗在香喷喷地睡觉,或者主人让厨房助手机器人拿起刀子往前走,然而它却站在一个人类厨师身后......命令很简单,后果却惨不忍睹。

那么,怎么样才能使机器人既听人类的命令,又不会造成不利后果?如果不让机器人在狗狗周围行驶的话,它可能会一点也不动了;如果要它避免拿刀刺到厨师,它可能会站住不动,或一开始就不去拿刀了。

使自主运行的机器在行动时探测到潜在威胁,并试图去避免威胁,或拒绝执行指令,任何情况下都很必要。 因此,我们到底该如何教机器人在恰当的情形下说“不”呢?

如何使机器人预知下一步

位于波士顿的塔夫茨大学正在研发一种控制技术:机器人可基于人类指令作出简单的推断。这将决定机器人是会按指令行事,还是会因为指令违反了预先设定的道德准则,而拒绝行动。

要让机器人知道什么时候、为什么、如何去拒绝执行指令,执行起来比口头说说要难得多。搞清楚一个行动会造成什么危害或问题,光看问题的直接结果是不够的 ——一个从窗口扔出去的球,可能会掉进院子里,这不会造成任何伤害;但若掉到了繁忙的街道,这球可能就再也找不到了,甚至可能会导致司机为了躲避而突然一个急转弯,接着导致车祸。情景不同,结果不同。

以现有的机器人技术,在和孩子玩丢球游戏与把球扔出窗外或扔进垃圾桶之间,决定何时可以扔球,何时不可以还很困难。要是小孩子和机器人恶作剧,假装接球却躲过去,让球飞出开着的窗户的话,它就更不知道该怎么办了。

向机器人解释道德和法律

理解为何某些行为具有危险性,涉及到大量背景知识(包括在窗前玩球,球可能会飞出窗户)。这需要机器人不仅能自主考虑到行为后果,还能思考出人类发出指令的真正意图。

不管人类指令是出于好意还是恶意,机器人要能通过预知行为结果,弄清楚人类复杂指令的原因是什么,并能把行为结果与社会规定的、希望或合法的社会准则、道德准则相比较。如上所示,现有机器人遵循的一般规则是:“如果机器人的行为会造成有害后果,那么他们可拒绝行动。”明确义务和权限之间的关系,能让机器人通过可能结果,推理是否要执行指令。

总的来说,机器人不该执行违法或不被希望的行为。因此,他们需要了解法律、道德准则,甚至是礼节,以决定行为结果,或行为本身是否违反这些准则。

目前,想让机器人处理上述情境,还有很长的道路要走。但有一点早已证实:要让机器人去服从命令,它们得首先先学会拒绝。

转载:中国机器人网(原始来源:评论:0)

以上是网络信息转载,信息真实性自行斟酌。

 
本文标题:机器人要学会对人类说“不”
本文网址:
版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

文本助手 资讯搜索 分享好友 打印本文 关闭窗口
  • 手机浏览本文

    手机应用中扫描本文二维码,即可浏览本文或分享到您的社交网络中。

  • 微信公众号

    扫描二维码,关注中华厨具网微信公众号,实时了解行业最新动态。

今日热点文章更多
品牌聚焦更多
推荐品牌更多
热门频道
关闭广告
合作伙伴:
中华厨具网 鲁ICP备2021046805号         鲁公网安备 37162502000363号 (c)2018-2026SYSTEM All Rights Reserved 投资有风险 加盟需谨慎
关闭广告
关闭广告