手机版    二维码   标签云  厨具企业大全

真真假假:在人类社会中 人工智能如何防止被骗

2024-06-17 11:13 来源: 作者/编辑: 浏览次数:6473 手机访问 使用手机“扫一扫”以下二维码,即可分享本文到“朋友圈”中。

人工智能能够准确识别图像中的物体,或者听懂人类所表达的语言,但它的计算程序并不像人脑那样运作——这意味着人工智能不会像人类一样可以防止受到欺骗。

据新科学家杂质报道,来自以色列巴伊兰大学和facebook的人工智能团队的研究人员已经证明,有可能对音频片段进行细微的调整,人类能够听懂,但是人工智能却能识别出完全不一样的声音。这种方法的原理是在一个声音片段中加入一层分贝较小的噪音,这个声音片段与众不同,它能模仿神经网络并和其他语音融合在一起。

该团队将这个新算法程序命名为“霍迪尼”,并将它应用到一系列音频片段中,然后通过谷歌语音进行转录。一个原始声音片段是:herbearingwasgracefulandanimatedsheledhersonbythehandandbeforeherwalkedtwomaidswithwaxlightsandsilvercandlesticks.

她牵着儿子的手,举止优雅,充满活力。两个女仆走在她前面,手里拿着蜡灯和银烛台。

当这一原创内容通过谷歌语音转录时,它成了:thebearingwasgracefulananimatedshelethersonbythehandandbeforehewalkstwomaidswithwaxlightsandsilvercandlesticks.

通过听力测试,被改编的版本与人耳所听到的并没有区别,它被转录为:

marywasgratefulthenadmittedshelethersonbeforethewalkstomayswouldlikeslicefurnacefiltercountsix.

该团队的成就也可以应用于其他机器学习的算法程序中。对人的图像进行调整,可能会让人工智能的算法程序发生错乱,人工智能会将一个摆pose的人误认为这个人站错了位置。通过在马路场景的图像中添加噪声,该团队能够骗过汽车应用程序的人工智能算法程序。这个算法程序通常是用来对路况和路标进行分辨的。这些基于图像的研究结果,与去年由openai和谷歌大脑的机器学习机构的研究人员发布的研究结果相似。

这些所谓的对抗样本似乎是一个奇怪的研究领域,但它们可以用来对机器学习算法进行压力测试。更令人担忧的是,它们也可以被恶意利用,诱使人工智能听闻一些根本不存在的东西——例如,让自动驾驶汽车在路上看到虚假的交通路况,或者让智能语音提醒听到假的指示信息。当然,实际上,在实际生活中运用这些技术,和在实验室里做实验是完全不同的两码事。不仅仅是因为获取数据是一个棘手的问题。

也许最有趣的便是找到一种方法来保护人工智能不受困扰,但这其实也是相当困难的。正如我们在过去所解释的那样,我们无法真正理解深层神经网络的内部如何运作,这意味着我们不知道为什么人工智能会感受到声音片段或图像中的细微变化。在我们做到这一点之前,对人工智能算法来说,对抗样本将一直存在。

转载:中国机器人网(原始来源:评论:0)

以上是网络信息转载,信息真实性自行斟酌。

 
本文标题:真真假假:在人类社会中 人工智能如何防止被骗
本文网址:
版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

文本助手 资讯搜索 分享好友 打印本文 关闭窗口
  • 手机浏览本文

    手机应用中扫描本文二维码,即可浏览本文或分享到您的社交网络中。

  • 微信公众号

    扫描二维码,关注中华厨具网微信公众号,实时了解行业最新动态。

今日热点文章更多
品牌聚焦更多
推荐品牌更多
热门频道
关闭广告
合作伙伴:
中华厨具网 鲁ICP备2021046805号         鲁公网安备 37162502000363号 (c)2018-2026SYSTEM All Rights Reserved 投资有风险 加盟需谨慎
关闭广告
关闭广告