对于人工智能承诺的每一个令人兴奋的机会,其潜在的缺点是其暗淡的镜像。我们希望人工智能能够让我们做出更明智的决策,但如果它最终会加剧社会的偏见呢?我们梦想技术可以让我们从工作中解脱出来,但是如果只有富人的利益,而穷人被剥夺了呢?
532 >
像这样的问题让人工智能研究人员在晚上工作起来,这也是谷歌今天推出人工智能倡议以解决其中一些问题的原因。新项目名为pair(它代表“people + ai research”),其目的是“研究和重新设计人们与ai系统交互的方式”,并尝试确保该技术“使每个人受益并赋予权力”。
这是一个广泛的职权范围,也是一个雄心勃勃的职权范围。谷歌表示,pair将研究影响人工智能供应链中每个人的许多不同问题 - 从编码算法的研究人员到使用专业人工智能工具(或很快将)使用专业人工智能工具的医生和农民等专业人士。这家科技巨头表示,它希望人工智能用户友好,这意味着不仅要让技术易于理解(让人工智能解释自己是一个已知且具有挑战性的问题),而且还要确保它能够平等地对待用户。
人们一次又一次地注意到,社会的偏见和不平等往往在人工智能中变得难以编码。这可能意味着面部识别软件无法识别黑皮肤的用户,或者语言处理程序认为医生总是男性,护士总是女性。
通常这种问题是由人工智能训练的数据引起的。它所具有的信息不完整,或者它以某种方式受到偏见。这就是为什么pair的第一个真正新闻是宣布两个新的开源工具 - 名为facets overview和facets dive--这使得程序员更容易检查数据集。
在上面的屏幕截图中,facets dive用于测试面部识别系统。该计划按照原产国对测试人员进行排序,并将错误与成功识别进行比较。这允许编码人员快速查看他们的数据集不足之处,并进行相关调整。
目前,pair有12名全职员工。考虑到问题的严重程度,这是一个小小的数字,但谷歌表示,pair实际上是一项全公司计划 - 将从该公司的各个部门吸取专业知识。
来源:中国产业经济信息网
以上是网络信息转载,信息真实性自行斟酌。












)







