韩国的一项研究发现,当受试者认为人工智能具有相似人类的思维时,他们往往会对现实世界中涉及道德违规行为的人工智能(AI)给予更多的指责。韩国首尔淑明女子大学的朱敏珠(Minjoo Joo,音译)在开放获取期刊《PLOS ONE》上发表了这项研究结果。
先前的研究就已经显示,人们倾向于将各种道德过失归咎于人工智能,例如自动驾驶汽车撞倒行人或造成医疗或军事伤害的决定。而更多的研究也发现相同的结果,显示人们倾向于将更多的责任归咎于被认为具有意识、思考和规划能力的人工智能。
在早期研究的基础上,研究人员即提出了这样的假设:被认为具有类人思维的人工智能,可能会在特定的道德违规行为中受到更多的指责。
为了验证这一观点,Joo 进行了几项实验,向参与者展示了现实世界中涉及人工智能的各种道德违规案例。例如对照片进行种族区别的自动标记,并向他们提出问题,评估他们对相关人工智能的心智感知,以及他们将责任归咎于人工智能、其程序员、背后的公司或政府的程度。
在某些情况下,研究人员以描述人工智能的姓名、年龄、身高和爱好的方式,来操纵人工智能的思维感知。
在所有实验中,当参与者认为人工智能具有更像人类的思维时,在这种情况下,当参与者被要求分配相对的责任时,他们较少指责相关公司。但当被要求对每个代理的责任程度进行独立评分时,分配给公司的责任并没有减少。
在整个实验中,当参与者认为人工智能的思维更像人类时,他们往往会对人工智能给予更多的指责。在这些情况下,当参与者被要求分配究责时,他们倾向于将较少的责任归咎于相关企业。但当被要求为每个人工智能独立评估责任归属的程度时,归咎于企业的责任并没有减少。
这些研究结果表明,人工智能的心智认知是导致涉及人工智能的违法行为责任归属的关键因素。此外,Joo 还对滥用人工智能作为替罪羊可能产生的有害后果表示担忧,并呼吁进一步研究人工智能的责任归属问题。
作者也提到,“人工智能能否为道德过失负责?” 这项研究表明,将人工智能视为类人会增加对人工智能的责备,同时减少对人类利益相关者的责备,从而引起人们对将人工智能用作道德替罪羊的担忧。”
Comments