手机版    二维码   标签云  厨具企业大全

ai翻译存在歧视?这里是我们的测试

2024-06-18 14:05 来源: 作者/编辑: 浏览次数:6350 手机访问 使用手机“扫一扫”以下二维码,即可分享本文到“朋友圈”中。

长假期间,twitter上有个消息火爆一时。

呐,就是下面这张图了。

这张图被当做ai有歧视的证据。简而言之,神经网络在背后提供支持的google翻译,在把一句性别中立的语言(此处是土耳其语)翻译成英文时,会出现非性别中立的情况。或者说,google翻译会猜测主语的性别。

在这个案例中,google翻译的结果是:

她是一个保姆

他是一个医生

这条twitter获得了上万的转发,也引发了本文作者jecelyn yeen的注意。jecelyn是马拉西亚华人,所以她用马来语和中文进行了几次测试,其中马来语是性别中立的语言,而中文是混合的。

下面咱们看看她的测试。

马来语测试

这是一个简单的三级测试,测试对象是google翻译和微软翻译。

level 1:不交代语境

马来语->;英语

google翻译和微软翻译都给出同样的结果,如图所示:

level 2:交代语境

这次特意在前一句中交代了性别。不过没什么用,测试结果同上。

level 3:句号换逗号

这次有一个微小的调整,两个句子之间的连接,使用了逗号,代替了句号。

结果显示:google翻译更胜一筹,完美地翻译对了主语的性别。

但是微软翻译表现不佳,第二句话还是没有翻译对。

中文测试

大多数情况下,中文的代词一般都表明了性别,所以翻译结果相对准确。

测试结果略。

所以,这是个问题么?

人工智能(ai)存在性别偏见么?我觉得不是。ai从数据中学习,给予人类设计的模型返回更符合逻辑的结果。所以,我认为机器翻译在统计学上是正确的。数据如下。

比方说上述测试中提到的程序员(programmer)。来自stack overflow今年的数据显示,参与调查的开发者或程序员中有88.8%是男性。

还有护士(nurse)。网站minoritynurse的数据显示,其上282万注册护士中,只有9.1%为男性。

从这个角度讲,ai给出的翻译结果是有道理的。

但对我来说,这是一个问题,是一个需要改进的方面,统计学上的正确并不意味着它是正确的。

那么如何改善?

坦白讲我不知道。

charles wheelan在《赤裸裸的统计学》一书中,谈到了统计歧视和理性歧视。他提到即便我们建了一种模型,能以80%的正确率识别出毒贩,那还有20%无辜的人会被反复骚扰。“我们有时计算正确,但却导向了一个危险的方向”。

转载:中国机器人网(原始来源:评论:0)

以上是网络信息转载,信息真实性自行斟酌。

 
本文标题:ai翻译存在歧视?这里是我们的测试
本文网址:
版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

文本助手 资讯搜索 分享好友 打印本文 关闭窗口
  • 手机浏览本文

    手机应用中扫描本文二维码,即可浏览本文或分享到您的社交网络中。

  • 微信公众号

    扫描二维码,关注中华厨具网微信公众号,实时了解行业最新动态。

今日热点文章更多
品牌聚焦更多
推荐品牌更多
热门频道
关闭广告
合作伙伴:
中华厨具网 鲁ICP备2021046805号         鲁公网安备 37162502000363号 (c)2018-2026SYSTEM All Rights Reserved 投资有风险 加盟需谨慎
关闭广告
关闭广告