人工智能的不良、偏颇和不道德的应用

首席信息官应了解一些个不道德人工智能的例子,并了解其在确保企业人工智能保持中立方面的作用。

如今,人工智能技术的采用正在迅速加快。调研机构Gartner公司预测,到2020年,人工智能将成为30%以上的首席信息官的五大投资重点。麦肯锡公司的一项研究估计,全球科技公司在人工智能技术方面花费了200亿至300亿美元,主要用于研发。

虽然人工智能技术的社会效用令人信服,但正如英国卫报对“不平等项目”所提出的那样,也存在着一些合理的担忧,“当我们提供给机器的数据反映出我们自己不平等社会的历史时,我们实际上是在要求程序学习我们自己的偏见。”

不幸的是,人工智能的不良、偏见或不道德使用的例子很常见。以及关于企业如何保持中立的建议。

1.抵押贷款

贷款歧视的模式已从人类偏见转向算法偏见。哈斯商学院金融学教授Adair Morse共同撰写的一项研究得出结论:“即使编写算法的人打算创建一个公平的系统,他们的程序对少数借款人也有不同的影响——换句话说,在法律下是歧视性的。”

人们可能会认为,银行和房地产经纪人将非白人借款人系统地隔离到不太有利的社区,这已成为过去。但令人惊讶的是,抵押贷款行业的自动化只使得在用户界面后面隐藏红线变得更加容易。计算机安全专家BruceSchneier在其最近出版的“DataandGoliath”一书中叙述了2000年富国银行如何利用“社区计算器”创建了一个促进抵押贷款的网站,帮助买家找到合适的社区。计算器收集用户当前的邮政编码,根据当前社区的人口统计数据了解他们的种族,并且只推荐具有相似人口统计数据的社区。今年早些时候,美国住房和城市发展部就住房和抵押贷款广告中的种族偏见起诉了Facebook公司。

2.人力资源

到目前为止,当路透社报道亚马逊公司的新招聘引擎排除女性时,臭名昭著的招聘偏见问题引起了公众的注意。

据路透社报道,亚马逊公司在2014年组建了一个团队,该团队使用500多种算法自动化工程师和编码人员的简历审核流程。该团队使用亚马逊公司软件团队成员的简历对系统进行了培训,而这些团队成员绝大多数是男性。因此,该系统学会了取消任何上过女子学院或在简历中列出女子组织人员的资格。

越来越多的企业正在人力资源流程的各个层面采用算法决策系统。截至2016年,72%的求职者简历不是由工作人员筛查的,而是完全由计算机筛选。这意味着求职者和员工与人打交道的频率会降低——像亚马逊公司这样的故事可能会变得更加普遍。

然而,一好消息是一些公司正在努力消除潜在的偏见。ABBYY公司创始人David Yang共同创立了Yva.ai,这是一个专门设计的分析平台,通过避免使用任何可能导致偏见的指标(例如性别、年龄、种族)来避免算法偏差,即使这些指标是次要的(如参与妇女的活动或体育活动),中学(如姓名或毕业日期),甚至是大学(如参加精英学院,这已被越来越多地称为对少数群体的偏见的指示)。

在另一个例子中,现在由微软公司所有的LinkedIn已经部署了系统来收集和利用LinkedIn档案中的性别信息,而不是忽略这些信息。LinkedIn然后使用这些信息对任何潜在的偏差进行分类和纠正。

3.搜索领域

即使是基本的互联网搜索也会受到偏见的影响。例如,加州大学洛杉矶分校教授萨Safiya Umoja Noble在谷歌搜索“黑人女性”后,受到启发写了一本名为《压抑的算法》的菱,寻找与侄女分享的有趣网站,结果发现网站页面上充斥着不良内容。同时,搜索“首席执行官”时却显示了大量的白人形象。(幸运的是,首席执行官的问题在搜索引擎上正在得到解决。)

谷歌搜索的其他功能(例如AdWords)也存在偏见。来自卡内基梅隆大学和国际计算机科学研究所的研究人员发现,男性求职者比女性更容易看到高薪高管职位的广告。在翻译某些语言时,谷歌翻译也被称为性别歧视,例如假定护士是女人,医生是男人。

4.引导行业

伦敦圣乔治医院医学院的招生主任创建了一个1979年的项目,该项目很可能是最早报告的受污染系统的案例,但最终意外地排除了几乎所有少数族裔和女性申请人。到1986年,学校的工作人员开始关注潜在的歧视,最终发现每年至少有60名少数民族和女性申请人被不公平地排除在外。

人们可能想知道为什么花了这么长时间才发出警报,考虑到根据报道,只要一个非欧洲名字可以自动降低申请人的分数15分。著名的英国医学杂志直截了当地将这种偏见称为“职业上的污点”,最终,该校受到了轻微的处罚,并提供了赔偿,包括录取一些被排除在外的申请人。

首席信息官的角色

行业领先的科技公司正在努力解决数据的道德使用问题。例如,微软公司已经制定了一套六项道德原则,涵盖公平、可靠、安全、隐私和安全、包容性、透明度、责任。与此同时,Facebook公司最近向慕尼黑技术大学拨款750万美元,建立一个人工智能道德研究所。其他科技公司已经认同了人工智能联盟的伙伴关系及其“汇集全球各种声音以实现人工智能的承诺”的原则。

如果人工智能应用程序没有偏见,企业必须支持人工智能技术的整体方法。人工智能只和它背后的数据一样好,所以这些数据必须是公平的,并且代表所有人和文化。

此外,必须根据国际法制定技术原则。今年的G20峰会财长首次认同负责人工智能使用的原则。这包括以人为本的人工智能方法,该方法呼吁各国以尊重人权并分享其所提供的利益的方式使用人工智能。

在最简单的层面上,首席信息官需要质疑他们正在构建的人工智能应用是否道德、安全和正确。问题可能包括:

1.人工智能技术背后的数据是否良好,或者是否存在算法偏差?

2.是否积极审查人工智能算法,以确保它们经过适当调整和培训,能够根据预先定义的测试集生成预期结果?

3.在人工智能技术如何影响组织内部以及客户和合作伙伴利益相关者外部方面,是否坚持透明原则(如GDPR)?

4.是否设立了专门的人工智能治理和咨询委员会,包括跨职能领导和外部顾问,以建立和监督人工智能解决方案的治理?

归根结底,人工智能的伦理应用应被视为一项法律和道德义务,同时也是一项商业命令。不要成为不良和有偏见的人工智能的另一个例子。企业需要从这些不道德的用例中学习教训,以确定其人工智能工作是否保持中立。

作者:Harris编译_机房360
原文链接:http://www.jifang360.com/news/201992/n2076121929.html