在人工智能(AI)在社会中日益凸显的推动下,东京大学的研究人员调查了公众对人工智能伦理的态度。他们的研究结果量化了不同的人口统计和伦理情景如何影响这些态度。作为这项研究的一部分,该团队开发了一种类似于评级系统的八边形视觉指标,这可能对希望了解公众如何看待他们的工作的人工智能研究人员有用。
许多人认为,技术的快速发展往往超过了隐式指导和规范它的社会结构,例如法律或伦理。人工智能就是一个特别的例子,因为它似乎一夜之间就在很多人的日常生活中变得如此普遍。这种扩散,再加上人工智能相对更熟悉的技术的复杂性,可能会引发人们对现代生活这一关键组成部分的恐惧和不信任。谁不信任人工智能,以及在哪些方面不信任对人工智能技术的开发人员和监管机构很有用,但这些问题并不容易被量化。
东京大学的研究人员在Kavli宇宙物理数学研究机构(KavliInstituteforthePhysicsandMathematicsoftheUniverse)的HiromiYokoyama教授的带领下,着手量化公众对人工智能伦理问题的态度。通过对调查的分析,该团队特别试图回答两个问题:态度如何根据呈现给受访者的情景而改变,以及受访者本身的人口统计数据如何改变态度。
伦理无法真正量化,因此为了衡量人们对人工智能伦理的态度,该团队采用了许多人工智能应用程序共有的八个主题(这些主题引发了伦理问题):隐私、问责制、安全和保障、透明度和可解释性、公平和非歧视、人类对技术的控制、专业责任和人类价值观的促进,该小组称之为“八边形测量”,其灵感来自哈佛大学研究员JessicaFjeld和她的团队在2020年发表的一篇论文。
根据这八个标准,研究人员给予调查对象一系列的四种情景。每个场景都着眼于AI的不同应用,分别是:人工智能生成的艺术、客户服务人工智能、自主武器和犯罪预测。
调查受访者还向研究人员提供了他们的年龄、性别、职业和教育水平等个人信息,并通过一组附加的问题来衡量他们对科学和技术的兴趣程度。这些信息对于研究人员了解人们的哪些特征与某些态度相对应是至关重要的。
“先前的研究表明,女性、老年人和具有更多学科知识的人对风险的认知更加消极。鉴于人工智能已经变得如此普遍,我期待在这项调查中看到一些不同的东西,但令人惊讶的是,我们在这次调查中看到了类似的趋势,”Yokoyama说。“然而,我们看到的是,不同的场景是如何被感知的,与其他三种场景相比,人工智能武器的想法遭到了更多的质疑。”
该团队希望这一结果可以导致创建一种通用量表来衡量和比较围绕人工智能的伦理问题。这项调查仅限于日本,但该团队已经开始在其他几个国家收集数据。
“借助通用量表,研究人员、开发人员和监管机构可以更好地衡量特定AI应用或影响的接受程度并采取相应行动,”助理教授TilmanHartwig说。“在开发场景和问卷调查时,我发现人工智能中的许多主题都需要大量的解释,比我们意识到的还要多。这表明,在人工智能方面,感知与现实之间存在巨大的差距。”
来源:ChinaIT