手机版    二维码   标签云  厨具企业大全

机器人医生能下“病危通知书”吗?

2024-06-24 14:15 来源: 作者/编辑: 浏览次数:1107 手机访问 使用手机“扫一扫”以下二维码,即可分享本文到“朋友圈”中。

(记者 蒋荣耀)最近,美国加州一家医院发生了件怪事:一名机器人医生告诉78岁的病人,他的病没治了。由一名机器人来给人类下“病危通知书”,病人的家属不敢相信也无法接受,于是将他们的愤怒在媒体上公开了。

详情是这样的:一位长期受慢性肺病折磨的病人3月初住进了加利福尼亚州弗里蒙特一家医院急诊科。初步诊断后,一名机器人在重症监护室对病人进行了随访。机器人告诉病人,他将无法返回家中接受临终关怀,但是他可以在医院使用吗啡来减轻痛苦。这次诊断意味着,一名机器人给病人下了“病危通知书”。在入院4天后,病人死亡。

尽管医院也认为这件事的发生是偶然且“极其不正常”的,但是随着人工智能技术的进步,人与机器人发生矛盾的事情一定会越来越多。从这个案例看,家属质疑的并不是机器人的能力——事实上机器人对病情的判断是准确的。那么问题究竟出在哪里呢?

大家还记得电影《我,机器人》开头吗?两辆车掉进水里,机器人需要做一个选择,是先救警探还是孩子。最终机器人救了警探,因为它计算出警探有45%的生还机会;而孩子只有11%的生还机会。在这个场景中,机器人的能力或者判断似乎也并没有错,但是当遇到同样问题时,人类已经在千百年的发展中形成了自己的价值观:应该先救援老弱妇幼。

在美国加州医院的案例中,病人家属认为,“这些(病人不行了)话应该是一个活生生的人来告诉我们,而不是冰冷的机器。”家属也没有质疑机器人的诊断能力,而是从价值观上,他们不能接受“冰冷”的机器人给病人判了“死刑”。

机器人今天确实已经在广泛领域得到应用,在工业、教育、医学等领域,机器人已经开始替代一些人类的工作。随着机器人不断智能化,当机器人替代我们完成了各项工作,有没有一些活儿是机器人不应该去做的呢?

机器人给病人下病危通知,机器人选择先救警察而不是小孩,引发人类担心的根源,首先是因为机器人没有伦理道德。我们的担心,其实就是机器人可能引发一系列伦理风险问题。

但本文开头提到的案例,还有担心机器伤害人类的问题,其实是另外一层的冲突:法律冲突。机器人给病人下病危通知,有没有法律效力?在我们的法律社会,一个人犯了错会承担后果,民事案中承担民事责任,刑事案件中承担刑事责任。机器人呢?机器人能够成为承担责任的主体吗?既然机器人不能够成为承担责任的主体,反过来是不是可以理解为,机器人其实无权给病人做出诊断?或者我们需要在机器人不能承担责任的情况下,设计出追究相关人的法律责任的制度?

随着ai技术和5g技术的发展,机器人的发展、创新和使用一定会大步向前走。机器人所带来的伦理道德风险问题和法律问题会越来越多,看来我们是该考虑考虑怎么办了。

转载:中国机器人网(原始来源:评论:0)

以上是网络信息转载,信息真实性自行斟酌。

 
本文标题:机器人医生能下“病危通知书”吗?
本文网址:
版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

文本助手 资讯搜索 分享好友 打印本文 关闭窗口
  • 手机浏览本文

    手机应用中扫描本文二维码,即可浏览本文或分享到您的社交网络中。

  • 微信公众号

    扫描二维码,关注中华厨具网微信公众号,实时了解行业最新动态。

今日热点文章更多
品牌聚焦更多
推荐品牌更多
热门频道
关闭广告
合作伙伴:
中华厨具网 鲁ICP备2021046805号         鲁公网安备 37162502000363号 (c)2018-2026SYSTEM All Rights Reserved 投资有风险 加盟需谨慎
关闭广告
关闭广告