在2013年的一次机器人大会上,麻省理工学院的研究员凯特·达令(katedarling)做了一个小测试,她邀请与会者和体形与吉娃娃相当的电子恐龙玩偶一起玩耍。这些玩偶名为帕雷欧(pleo),但与它们互动的人可以为自己的机器恐龙另外取名。这些人很快发现帕雷欧可以和他们沟通:小恐龙们通过姿势和面部表情清楚地表示它们喜欢被轻抚,不喜欢被拎着尾巴拽起来。一小时后,达令让大家休息一下;等游戏再开始时,达令拿出小刀和斧头,让参与者折磨、肢解他们的小恐龙。
达令预计自己会遭到一些抵制,所以她早有准备,但当所有参与者一致拒绝伤害自己的机器恐龙时,她感到颇为惊讶。有些参与者为防止帕雷欧被人伤害,甚至用身体挡住它们。“我们回应这些仿生机器恐龙发出的社交信息,”她在2013年的演讲中总结道,“即使我们知道它们不是真的生命。”
这一洞见将引领下一波自动化风潮。埃里克·布林约尔松(erik brynjol fsson)和安德鲁·麦卡菲(andrew mcafee)在合著的《第二个机器时代》(the second machine age)一书中提到,从在生产车间迅速学会新技能的自主机器人到能评估求职者或推荐企业战略的软件,这些“会思考的机器”正在进入工作场所,而且为企业和社会创造巨大价值。然而,尽管技术瓶颈正被一一攻破,但社会制约因素还在。你如何劝说你的团队信任人工智能,或让他们将机器人视为自己团队中的一员,甚至领导,并接纳它们?如果你换掉那个机器人,员工的士气会低落吗?但是当这些机器从工具转变成我们的队友时,有一点越来越明确:接纳机器人意味着我们不能仅仅把它们当成一种新的技术应用。
信任算法还是判断?
与会思考的机器协同工作时,我们遇到的第一个挑战就是承认机器知道的比我们多。请参考2014年的一项研究:沃顿商学院的研究者进行了一系列实验;受试者既可以运用某个算法,也可以根据自己的判断做预测,而预测较准的受试者会得到奖金。多数人倾向凭直觉预测,而非运用某个算法。
这一现象被称作“回避算法”(algorithm avoidance),在多个研究中都有记录。人们在诊断疾病或预测政治结果时都选择摒弃算法,而是相信自己或他人的判断,但结果往往是这种人类凭直觉做出的决定更糟糕。因此,管理者应得到启示:帮助人们信任会思考的机器很有必要。
但仅仅告诉人们算法有多精准并不能说服他们信任算法。人们会因算法出错而对其抱有偏见,却对犯错的人类则更包容。研究者伯克利·戴特沃斯特(berkeley dietvorst)认为,这是因为我们相信人类的判断力会提升,却错误地以为算法无法演进。我们在做比数字计算更复杂或感性的工作时,回避算法的倾向更明显。哈佛商学院的麦克·诺顿(michael norton)总结说:“思考近乎于做数学题。机器人可以做数学题。但它们不可以感受事物,因为那样它们就太像人类了。”
诺顿认为,只要把任务描述成分析类的工作,就有助于消除人们对算法的疑虑。在另一实验中,他和凯洛格商学院的亚当·韦兹(adam waytz)一起发现,如果受试者得知数学老师教学生各种各样的公式和运算法则时,要用到很多分析技能,他们会比较容易接受机器人可以当数学教师的观点。但如果受试者被告知这份工作需要“与年轻人相处的能力”,他们就不太会赞同让机器人任数学老师一职。
戴特沃斯特和沃顿的同事另辟蹊径。如果人们更信任自己的判断,而非算法,那为何不将前者融入后者呢?于是他们在一次实验中允许受试者稍稍调整算法的结果。他们要求受试者根据多个数据点预测某高中生的一次标准化数学测验成绩,但没有强迫受试者在自己的判断和算法中选其一,所以受试者可以将算法得出的成绩调高或调低几个百分点,之后将结果作为最终预测成绩上交。研究者发现,得到选择权的受试者更倾向信任算法。戴特沃斯特认为,这是因为他们不再感到自己正在放弃控制预测的权力。
转载:中国机器人网(原始来源:评论:0)
以上是网络信息转载,信息真实性自行斟酌。











)







