向善还是作恶?AI 开发者如何摆脱伦理困境?

学术头条
+ 关注
2022-03-17 14:35
742次阅读

在大多数科幻电影中,人工智能(AI)最典型的形象莫过于冷酷和无情的智慧机器,它们具备了人类大脑的部分智力,但 没有人类的情感,当然也就没有所谓的 “人性” 。 

事实上,尽管近年来 AI 技术发展迅猛,给我们的生活带来了前所未有的改变,但它仍是一种尚未完全成熟的计算机技术,因而 AI 可能导致的伦理道德后果也难以准确预料 。 

向善还是作恶?AI 开发者如何摆脱伦理困境?

(来源:Pixabay) 

近日,来自挪威的科学家 Inga Strümke、Marija Slavkovik 和 Vince Madai 在一篇名为《人工智能发展中的社会困境以及我们为什么要解决它》(The social dilemma in AI development and why we have to solve it)的论文中就指出了现有 AI 存在的伦理道德问题。 

在他们看来,AI 发展中面临的最大问题之一是, AI 开发者在 AI 道德发展方面存在严重的社会困境(social dilemma)如果我们无法制定出一套统一有效的职业道德准则和立法,这个社会困境就会一直存在,并且影响甚至危害人类的生活。 

社会困境是指个人狭隘的自我利益与更大的社会群体的利益直接相悖,如果每个人都试图以牺牲群体利益为代价最大化自己的利益,那么每个群体成员的净结果都会比采用合作社时更糟糕。 

社会困境最典型的例子就是公地悲剧(the tragedy of the commons) 。 

公地悲剧能够更好地说明现实生活中的社会困境,每个参与者都有权使用私人资源,但也可以使用公共共享资源。 

一个纯粹自利的参与者将从共享资源中获得最大的价值,甚至是破坏它,然后再利用私人资源,这个过程最终会给所有人带来更坏的结果。 

过度使用公共土地、空气和水资源有时被认为是这种社会困境的现实世界版本。 

向善还是作恶?AI 开发者如何摆脱伦理困境?

图|“公地悲剧” 是一种解释过度开发的好例子(来源:维基百科) 

Strümke 等人表示, 在 AI 发展的社会困境中,主要存在三方面利益冲突:社会、商业公司,和作为社会成员和商业公司雇员的 AI 开发者。

社会的利益是道德发展,商业公司的利益是利润和市场中的生存,AI 开发者的利益主要是维持他们的就业,其次是 AI 的道德发展,因为开发者也是社会的一部分。 

因此, AI 开发者必须权衡其作为社会成员的利益和作为公司雇员的利益,这就是他们面临的社会困境。

如今,AI 技术可以为商业公司带来不菲的利润。因此,商业公司为了让自己处于竞争态势,必须要快速发展 AI 技术。然而,技术的快速发展可能与道德规范背道而驰: 

后者需要降低开发速度以实施必要的道德分析,甚至可能需要基于道德考虑决定取消某些系统。 

在这种情况下, 如果 AI 开发者对 AI 发展道德表达了担忧或因为某些道德问题拒绝为公司发展做出 “贡献”,他们则可能会丢失这份工作。

因此,AI 开发者一直纠结于 AI 发展道德问题与自己的工作利益冲突之间。 

Strümke 等人在论文中指出,当前的 AI 仍然存在一些发展道德问题,其中最典型的就是歧视和偏见。 

也许有人会感到迷惑与不解:就像我们潜意识中认为的那样, AI 冷漠又无情,根本没有人类的感情,何来歧视与偏见呢?

事实上,AI 技术本身确实不存在歧视与偏见,但 AI 技术的背后,需要有 AI 研究人员用来训练的大量数据,尽管 AI 本身不知道歧视和偏见是何种行为,以及蕴含着何种意思,但其背后的研究人员可能会有这些想法。 

因此, AI 怎么看待这个世界,在一定程度上反映了人类的想法,如果其背后的研究人员存在歧视与偏见,那设计、开发出的 AI 必然也存在同样的道德问题。

向善还是作恶?AI 开发者如何摆脱伦理困境?

(来源:Pixabay) 

在 AI 技术应用领域,人脸识别是 AI 被广泛应用于人类日常生活中的一种应用方向,而它恰巧会成为种族和性别偏见的一个潜在来源。 

2018 年 2 月,麻省理工学院(MIT)媒体实验室计算机科学家 Joy Buolamwini 发现,IBM、微软等公司的性别识别 AI 系统能以 99% 的精度从一张照片中准确识别出一个人的性别,但仅限于白人。而用于黑人女性时,这个数字会骤降至 35%。 

一个最合理的解释是,AI 的 “偏见” 取决于其背后算法训练的数据,如果用于训练的数据中白人男性比黑人女性更多,那显然白人男性的识别率就会更高。后来,IBM 宣布他们已经采用了新的数据集并重新训练,微软也表示会采取措施提高准确性。 

事实上, AI 开发中的道德准则非常重要,因为不道德的 AI 开发会对个人和整个社会产生严重的负面影响 。 

受近期提出的 AI 监管框架的影响,人们可能会认为,AI 开发的道德挑战完全可以通过立法得到解决。 

但事实上,立法根本无法有效地解决这个问题: 因为立法的发展速度比技术发展慢得多,这意味着立法可能在危害结果已经造成之后才会出台。 

此外,立法会禁止任何可能不道德或被滥用的行为,这将会在一定程度上阻碍 AI 技术的进步,而且对小企业的影响超过对大型企业的影响,会加剧用户和供应商之间已经存在的权力不平衡问题。 

当然,职业道德准则并不是凭空制定的,它需要参考伦理道德理论、社会期望以及从业者的形象。 

因此,它也从来不是一成不变的,而是需要根据技术进步、社会规范和价值观的发展以及监管制度而不断修订。 

然而,尽管它们是动态的,但在任何给定的时间内,仍然有一个唯一的版本是有效的,可以保护 AI 开发者免受社会困境的影响,并最大限度地为社会带来利益。 

但直到如今,依然没有一个被广泛接受的 AI 职业道德准则存在。

向善还是作恶?AI 开发者如何摆脱伦理困境?

(来源:Pixabay) 

论文作者认为,可以归因于以下两个主要原因:

第一点,目前的分析主要接受许多给定的边界条件,而不是建议如何改变这些条件。

即使像 IEEE 这样的大型机构采用了 AI 开发的职业规范准则,也仍然存在着大量挑战。 比如,到底谁是 AI 开发者? 加入这些组织并遵守准则的动机是什么? 如果存在潜在的巨大收益,如何防止组织放弃准则? 

更糟糕的是,几个相互竞争的组织可能会提出不同的准则,然后将该领域分割开,让开发人员和公众无法真正了解 AI 行业的道德规范。 

此外,这些努力甚至也可能被大型科技公司劫持:“支持” 某些组织发布道德准则,对内容产生重大影响,本质上导致一种新的道德清洗(ethics washing)形式。 

另外一点是,只要当前的举措不能有效解决开发者所处的社会困境,AI 的职业道德准则就不会有任何作用。

比如,已有研究工作讨论了在开发团队中加入伦理学家可能会有助于合乎伦理的 AI 开发。然而,如果这些伦理学家也属于这一家公司,社会困境也同样适用于他们。 

但反过来,建立统一的 AI 职业道德准则又是解决 AI 开发者社会困境的最佳途径。 

为了避免 AI 发展的道德危机,Strümke 等人提出了一个有效的应对方案。 

首先,AI 的发展必须成为一个统一的职业,就像医学领域那样,必须设定相应的从业许可,该许可必须是强制性的,且适用于所有中高风险 AI 系统的开发人员。

AI 开发者将以一种前所未有的方式得到保护,被其他专业人员取代的可能性非常小,由于社会困境而被解雇的可能性就会大大降低,因为贪心的老板们知道,所有 AI 开发者都遵守相同的准则,不会为了商业利益违反准则。 

因此,AI 开发者有权拒绝执行不道德的开发行为,而不用担心社会困境带来的后果。 

向善还是作恶?AI 开发者如何摆脱伦理困境?

 图|a) 之前,社会对道德行为的需求和雇主开发产品的需求使开发者陷入两难境地;b) 如今,开发者之前面临的两难困境转变成了社会和雇主必须使用既定方法来处理的一种权衡(来源:该论文) 

其次,要建立一个全国性 AI 开发者组织,来维护雇用 AI 开发者的注册登记。

这些组织,包括其所有成员,将成为 AI 职业道德准则发展的核心,并且负责维护、更新和完善这些准则。凡是不遵守职业道德准则的人都将被吊销从业执照。 

我们无法否认,建立统一的道德准则是一件难事,但这是解决 AI 开发者社会困境的最有效途径。 

一旦有了统一的职业道德规范,它将能阻止一些公司和政府实施不道德获利行为,从而避免 AI 给人类及社会带来的不良后果。

关于以上讨论,你怎么看? 欢迎在留言区发表你的观点~

参考资料: 

https://arxiv.org/abs/2107.12977 

本文来自微信公众号 “学术头条”(ID:SciTouTiao),作者:王言心,36氪经授权发布。

0
相关文章
最新文章
查看更多
关注 36氪企服点评 公众号
打开微信扫一扫
为您推送企服点评最新内容
消息通知
咨询入驻
商务合作