手机版    二维码   标签云  厨具企业大全

塔夫茨大学教授:为了机器人好,我们应该教它学会说“不”

2024-06-14 08:11 来源: 作者/编辑: 浏览次数:3042 手机访问 使用手机“扫一扫”以下二维码,即可分享本文到“朋友圈”中。

做人要有原则,不能做的事即使是上司要求也一定不能做,这个道理谁都懂。那么如果将情境转换到机器人身上呢?它们也必须无条件服从人类的命令吗?大多数人肯定会下意识的觉得,机器人就该以服从为天职,因为它们是机器,设计之初就是要服从人类命令的。不过,想想你平时做的那些傻事吧,如果不假思索的要求机器人照做,恐怕得出不少乱子。

下面我们共同来看几个例子:

1. 如果家中有台智能辅助机器人专门负责照顾老年人生活,那么患了健忘症的老人可能会让机器人做许多重复的无用功,比如一件衣服一天洗个七八次;

2. 家中熊孩子可能会把日托机器人当玩具,命令它往窗外扔东西;

3. 学生可能会把作业甩给机器人完成;

4. 家政机器人在做菜时可能会被主人叫去倒垃圾。

这样的例子数不胜数,稍不小心,可能就会把自己也搞得手忙脚乱。当然,以上这些最多让你吃到暗黑料理,但如果有坏人教唆机器人犯罪,恐怕后果就严重了。

那么人类该如何避免因机器人服从命令而带来的麻烦呢?如果别有用心的人让机器人拿起刀向前走,而它前方站着一个人怎么办?恐怕最好的方法要么是机器人停下不动,要么就是机器人拒绝拿刀。

不过,无论是哪种办法,机器人都需要事先探知自己后续行为会造成的后果并主动做出是否遵守命令的选择。那么我们怎么教机器人说“不”呢?

机器人怎么知道下一步会发生什么?

在实验室中,我们已经开始开发基于人类命令的机器人控制系统,通过该系统,机器人就能决定是否执行人类命令(违反道德原则可以拒绝)。

不过,要想教会机器人不服从可不是个容易事,毕竟有些事的后果并非眼能看到的。将球扔出窗户,可能会安全落在院子里,也有可能落在人潮不息的大街上,它会砸住人还是砸到车(引发一系列连锁反应)谁也说不清。

以现在的技术条件,机器人很难确定到底什么时候能扔球(玩接球游戏可以扔,扔出窗外不可以)。此外,如果熊孩子故意欺骗机器人,假装自己要玩接球游戏却故意躲开,事情就有可能沿相反的轨道发展。

教授机器人道德和法律

要想让机器人理解自己行为可能造成的危险后果,就需要让它掌握大量的背景知识(如在窗前扔球可能会造成皮球飞出窗外)。机器人不但要衡量自己行为造成的结果,还要考虑人类发出某项指令的意图。

而要想让机器人明确领会人类复杂指令(善意与否)的意思,它们就要了解这些指令可能会造成的后果并与现有的社会道德和法律进行比对。

眼下,在管理机器人上我们有通用法则:“如果你被要求完成的任务可能会造成伤害,就可以决绝执行。”但如此简单的描述根本不够,为机器人制定详细的责任和权限势在必行。

总的来说,不做违法之事是机器人的基本原则,但如果人类的指令有问题,机器人也应该有说“不”的权利。因此,机器人“大脑”中必须装有法律、道德甚至人类礼仪,这样才能聪明的拒绝一些错误指令。

虽说现有的技术下机器人还很难获得上述能力,但我们从现在就应该定下一个基调,那就是机器人有权说“不”。

转载:中国机器人网(原始来源:评论:0)

以上是网络信息转载,信息真实性自行斟酌。

 
本文标题:塔夫茨大学教授:为了机器人好,我们应该教它学会说“不”
本文网址:
版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

文本助手 资讯搜索 分享好友 打印本文 关闭窗口
  • 手机浏览本文

    手机应用中扫描本文二维码,即可浏览本文或分享到您的社交网络中。

  • 微信公众号

    扫描二维码,关注中华厨具网微信公众号,实时了解行业最新动态。

今日热点文章更多
品牌聚焦更多
推荐品牌更多
热门频道
关闭广告
合作伙伴:
中华厨具网 鲁ICP备2021046805号         鲁公网安备 37162502000363号 (c)2018-2026SYSTEM All Rights Reserved 投资有风险 加盟需谨慎
关闭广告
关闭广告