内容摘要:人工智能存在社会学盲点中国社会科学报综合外媒报道日前,微软研究院首席研究员凯特·克劳福德和华盛顿大学法律与信息科学助理教授雷恩·卡罗在《自然》共同发表文章称,当前人工智能在技术领域突飞猛进,但暴露出来的社会学盲点也值得警惕。但与此同时,也有人担忧,人工智能若在进行预测和做出决策方面表现更优秀,是否会造成人类失业、信息泄露、道德伦理判断紊乱等相关社会问题。一辆人工智能驱动下的自动驾驶汽车在权衡“杀人决策”时,可能只会提供一个关于道德推理的狭隘框架。这是当前研究者面临的难题,但只有对人工智能的社会影响进行更为宽泛的探讨,才能对人工智能得出更为全面、深刻的理解。
关键词:人工智能;盲点;道德;系统分析;伦理;克劳福德;电车;影响;牺牲;华盛顿大学
作者简介:
人工智能存在社会学盲点
中国社会科学报综合外媒报道 日前,微软研究院首席研究员凯特·克劳福德和华盛顿大学法律与信息科学助理教授雷恩·卡罗在《自然》共同发表文章称,当前人工智能在技术领域突飞猛进,但暴露出来的社会学盲点也值得警惕。
当前,人工智能已经渗透进社会诸多领域,例如,金融系统已采用人工智能做初步分析工作。但与此同时,也有人担忧,人工智能若在进行预测和做出决策方面表现更优秀,是否会造成人类失业、信息泄露、道德伦理判断紊乱等相关社会问题。
文章以“电车难题”为例进行了说明。是否该牺牲一条生命来拯救五个无辜的人?功利主义认为,牺牲少数人来拯救多数人是合理的。但康德主义认为,道德应该建立在必要的义务责任上。如果不可以杀人是道德义务,就不应该让一个无辜的人牺牲。克劳福德等人认为,关于道德伦理的辨析是复杂的,但是对于人工智能而言,许多选择可能会变得简单而粗暴。一辆人工智能驱动下的自动驾驶汽车在权衡“杀人决策”时,可能只会提供一个关于道德推理的狭隘框架。如果自动驾驶汽车得到大规模应用,在面临“电车难题”这类选择困境时,应该如何进行伦理方面的设计,便成为一个社会学上的盲点。







