手机版    二维码   标签云  厨具企业大全

官方机器人伦理准则解析:不要歧视,不做伤害人的事

2024-06-13 10:08 来源: 作者/编辑: 浏览次数:7497 手机访问 使用手机“扫一扫”以下二维码,即可分享本文到“朋友圈”中。

美国著名小说家艾萨克·阿西莫夫(isaac asimov)曾为我们指出过机器人的基本行为规则:不伤害人类、服从命令和保护机器人自己。最近,英国标准研究院(bsi)发布了一份更为官方的机器人伦理准则文件,旨在帮助设计者创造合乎伦理的机器人。

bsi发布的这份文件叫作“bs8611机器人和机器人设备”,这是一份用干巴巴的语言编写的健康和安全手册,但里面所强调的不良场景可能直接取自科幻小说。机器人欺骗、过度依赖机器人和自主学习系统可能会超出他们的权限,这些都是制造商应该考虑到的危害。

这份文件是在牛津social robotics and ai大会上提出的,是英格兰大学的机器人技术教授alan winfield指出,这些准则代表了将伦理价值嵌入机器人和人工智能的第一步。这是第一个公开发表的、针对机器人设计的伦理标准,比阿西莫夫的法则更为复杂,提出了如何对机器人的伦理风险进行评估。

bsi文件的内容一开始是一系列宽泛的伦理原则:设计机器人的目的不应该是为了杀死或伤害人类;负责任的主体应该是人,而不是机器人;要能够找出对机器人及其行为负责的主体。

接下来的内容重点强调了一系列更具争议性的问题,比如同机器人建立感情纽带是否可取,尤其是设计的机器人是用来与儿童或老年人进行互动的。

谢菲尔德大学机器人和人工智能名誉教授noel sharkey举了一个例子,说明机器人可以无意地欺骗我们。在一个幼儿园配备有小机器人,孩子们很喜欢它,认为机器人比他们的家庭宠物认知性更强,实际上就是和机器人建立了情感纽带。

该准则表明设计者应该致力于透明化,但科学家们却说,在实际操作中这可能是非常困难的,因为目前ai系统的问题,特别是这些深度学习系统,是不可能知道为什么他们会做出这样或那样决定的。比方说,深度学习代理在完成某一项具体任务时,并不是按设定的方式;他们会尝试数百万次,来找到一个成功的策略,以此来执行任务——有时候这些策略是设计者都预想不到和无法理解的。

该准则甚至暗示了可能会出现带有性别歧视或种族歧视的机器人,并警惕大家:这些机器人可能会缺乏对文化多样性和多元主义的尊重。这一现象已经出现在警察所使用的技术上,比方说机场应用该类技术识别出可疑的人,并将其进行拦截,这就是一种种族歧视的评判。

并且,深度学习系统基本上使用互联网上的全部数据,但问题是,这些数据是带有倾向性的,就像这些系统倾向于支持中年白人男子。所有人类的偏见都有可能被纳入系统,这非常危险。

美国著名小说家艾萨克·阿西莫夫(isaac asimov)曾为我们指出过机器人的基本行为规则:不伤害人类、服从命令和保护机器人自己。最近,英国标准研究院(bsi)发布了一份更为官方的机器人伦理准则文件,旨在帮助设计者创造合乎伦理的机器人。

bsi发布的这份文件叫作“bs8611机器人和机器人设备”,这是一份用干巴巴的语言编写的健康和安全手册,但里面所强调的不良场景可能直接取自科幻小说。机器人欺骗、过度依赖机器人和自主学习系统可能会超出他们的权限,这些都是制造商应该考虑到的危害。

这份文件是在牛津social robotics and ai大会上提出的,是英格兰大学的机器人技术教授alan winfield指出,这些准则代表了将伦理价值嵌入机器人和人工智能的第一步。这是第一个公开发表的、针对机器人设计的伦理标准,比阿西莫夫的法则更为复杂,提出了如何对机器人的伦理风险进行评估。

bsi文件的内容一开始是一系列宽泛的伦理原则:设计机器人的目的不应该是为了杀死或伤害人类;负责任的主体应该是人,而不是机器人;要能够找出对机器人及其行为负责的主体。

接下来的内容重点强调了一系列更具争议性的问题,比如同机器人建立感情纽带是否可取,尤其是设计的机器人是用来与儿童或老年人进行互动的。

谢菲尔德大学机器人和人工智能名誉教授noel sharkey举了一个例子,说明机器人可以无意地欺骗我们。在一个幼儿园配备有小机器人,孩子们很喜欢它,认为机器人比他们的家庭宠物认知性更强,实际上就是和机器人建立了情感纽带。

该准则表明设计者应该致力于透明化,但科学家们却说,在实际操作中这可能是非常困难的,因为目前ai系统的问题,特别是这些深度学习系统,是不可能知道为什么他们会做出这样或那样决定的。比方说,深度学习代理在完成某一项具体任务时,并不是按设定的方式;他们会尝试数百万次,来找到一个成功的策略,以此来执行任务——有时候这些策略是设计者都预想不到和无法理解的。

该准则甚至暗示了可能会出现带有性别歧视或种族歧视的机器人,并警惕大家:这些机器人可能会缺乏对文化多样性和多元主义的尊重。这一现象已经出现在警察所使用的技术上,比方说机场应用该类技术识别出可疑的人,并将其进行拦截,这就是一种种族歧视的评判。

并且,深度学习系统基本上使用互联网上的全部数据,但问题是,这些数据是带有倾向性的,就像这些系统倾向于支持中年白人男子。所有人类的偏见都有可能被纳入系统,这非常危险。

转载:中国机器人网(原始来源:评论:0)

以上是网络信息转载,信息真实性自行斟酌。

 
本文标题:官方机器人伦理准则解析:不要歧视,不做伤害人的事
本文网址:
版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

文本助手 资讯搜索 分享好友 打印本文 关闭窗口
  • 手机浏览本文

    手机应用中扫描本文二维码,即可浏览本文或分享到您的社交网络中。

  • 微信公众号

    扫描二维码,关注中华厨具网微信公众号,实时了解行业最新动态。

今日热点文章更多
品牌聚焦更多
推荐品牌更多
热门频道
关闭广告
合作伙伴:
中华厨具网 鲁ICP备2021046805号         鲁公网安备 37162502000363号 (c)2018-2026SYSTEM All Rights Reserved 投资有风险 加盟需谨慎
关闭广告
关闭广告