手机版    二维码   标签云  厨具企业大全

马斯克再提醒:不受监管的ai比核武器更危险

2024-06-17 14:26 来源: 作者/编辑: 浏览次数:2565 手机访问 使用手机“扫一扫”以下二维码,即可分享本文到“朋友圈”中。

8月14日消息,据futurism报道,科技大亨伊隆·马斯克(elon musk)不久前在推特上发布了一张照片,引发人们对人工智能(ai)安全性的争论。当时马斯克发布了有关赌博上瘾广告的图片,上面写着“最终机器会赢”,显然他不仅仅指赌博机。更重要的是,马斯克称ai带来的危险比朝鲜核武器更大。

在随后的推文中,马斯克详细阐述了对ai系统开发进行监管的必要性。这与他本月早些时候所说的话相呼应,当时他说:“我认为,任何对公众构成危险的事情,至少政府应该有所了解,因为政府的义无之一就是确保公共福利。没有人喜欢受到监管,但对公众有危险的任何东西(包括汽车、飞机、食品以及药品等)都应该受到管制,ai也是如此。”

浏览对马斯克推文的评论发现,似乎大多数人都在某种程度上同意马斯克的意见。名为丹尼尔·佩德拉萨(daniel pedraza)的用户认为:“我们需要一个适应性较强的框架,不需要固定的规则、法律或原则,这对管理ai有好处。这个领域正在不断地变化和演进,任何固定的规则很快就会失效。”

许多专家都不愿意ai发展得太快。它造成的威胁听起来可能有点儿像科幻小说中的场景,但它们最终可能被证明是有效的。像史蒂芬·霍金(stephen hawking)这样的专家早就发出警告,宣称ai有终结人类的可能。在2014年采访中,这位著名的物理学家说:“ai的发展可能预示着人类的终结。”他甚至认为自动化的扩散对中产阶级是一种有害的力量。

另一位专家、metamed research的首席科学官迈克尔·瓦萨尔(michael vassar)指出:“如果远超人类的通用人工智能没有受到谨慎监管,可以肯定的是,人类将在非常短的时间内灭绝。”

很显然,至少在科学界,ai的自由发展可能不符合人类的最佳利益。很多人已经开始着手制定这些规则,以确保ai的发展“合乎道德规范”。电气与电子工程师协会提出了他们的第一份规则草案,希望能引导开发人员朝着正确的方向发展。

此外,在政府介入之前,科技巨头们也正在制定自我监管规则。来自谷歌、亚马逊、微软、ibm以及facebook等大型科技公司的研究人员和科学家已经开始讨论,以确保ai造福于人类,而不是成为人类的生存威胁。

当然,要想达到足以威胁人类生存的程度,ai还有很长的路要走。然而,ai的进步是突飞猛进的。著名未来学家雷·库兹韦尔(ray kurzweil)预言,计算机将在2045年变得比人类更聪明。然而,他并不认为这是件可怕的事。也许,科技公司的自我监管将足以确保这些担忧变得毫无意义,或者最终可能需要政府的帮助。不管你的感觉如何,现在开始这些对话不算杞人忧天。但与此同时,也不要过于担心,除非你是个有竞争力的玩家。

转载:中国机器人网(原始来源:评论:0)

以上是网络信息转载,信息真实性自行斟酌。

 
本文标题:马斯克再提醒:不受监管的ai比核武器更危险
本文网址:
版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

文本助手 资讯搜索 分享好友 打印本文 关闭窗口
  • 手机浏览本文

    手机应用中扫描本文二维码,即可浏览本文或分享到您的社交网络中。

  • 微信公众号

    扫描二维码,关注中华厨具网微信公众号,实时了解行业最新动态。

今日热点文章更多
品牌聚焦更多
推荐品牌更多
热门频道
关闭广告
合作伙伴:
中华厨具网 鲁ICP备2021046805号         鲁公网安备 37162502000363号 (c)2018-2026SYSTEM All Rights Reserved 投资有风险 加盟需谨慎
关闭广告
关闭广告