AI和ML潜在的五大致命威胁及解决办法

AI和ML潜在的五大致命威胁以及解决办法

【51CTO.com快译】人工智能(AI)和机器学习(ML)是这个时代最热门的话题,科学家对此也有很大争议,或许它们所带来的好处怎么强调都不为过,我们也需要关注和理解AI和ML潜在的致命威胁。

谁敢想象,有一天机器的智能会超过人类?——未来学家称之为奇点。著名科学家——人工智能的先驱——艾伦·图灵(Alan Turing)在1950年提出,机器可以像孩子那样训练。

图灵提出:“机器会思考吗?”他在著名的论文《计算机器与智能》中探讨了这个问题和相关问题的答案。

1955年,约翰·麦卡锡发明了一种叫做“人工智能”的编程语言LISP。几年后,研究人员和科学家开始使用计算机编码、识别图像和翻译语言等。早在1955年,人们就希望有一天能让电脑说话和思考。

伟大的研究人员,如机器人学家汉斯·莫拉维克(Hans Moravec )、科幻作家弗诺·文奇(Vernor Vinge)和雷·库兹韦尔(Ray Kurzweil),从更广泛的意义上思考这个问题,机器什么时候能够独自设计实现目标的方法。

曾经像史蒂芬·霍金这样的伟人警告过,当人们无法与先进的人工智能竞争时,这可能意味着人类的终结。“我想说我们不应该做的是,在不考虑潜在风险的情况下,就全力建设超级智能。”加州大学伯克利分校(University of California, Berkeley)计算机科学教授斯图尔特·拉塞尔(Stuart J. Russell)说。

以下是ML和AI的五个可能的危险以及解决办法:

1. 机器学习(ML)模型可能是有偏见的——本质上受人类的影响。

尽管机器学习和人工智能很有前途,但它的模型也容易受到无意的偏见的影响。有些人认为ML模型在决策时是公正的,但他们却忘记了,是人类在训练这些机器——从本质上讲——我们并不完美。

此外,在决策过程中,ML模型在处理数据时也可能存在偏差。你提供的本身不完整的数据(片面的数据),机器还会给出正确的结果吗?

举个例子,你经营一家批发商店,想建立一个模型来了解顾客。所以你建立了一个模型,希望评估顾客对商品的购买力;您还希望在年底使用模型的结果来奖励客户。

所以,你收集客户购买记录——那些有着长期良好信用记录的客户。

如果你最信任的一群买家碰巧在银行负债,却无法及时站稳脚跟,他们的购买力将大幅下降。但是,模型无法预测客户的不可预见程度。从技术上讲,如果您决定在年底输出结果,那么得到的是有偏差的数据。

Note:当涉及到机器学习时,数据是一个易受影响的因素,为了克服数据偏见,请雇佣专家来处理这些数据。

还请注意,除了您之外,没有人记录客户的这些数据——可以说,您掌握着一定的话语权。

数据专家应该质疑数据积累过程中存在的任何问题;他们也应该积极寻找这些偏见如何在数据中表现出来的方法。这与您创建了什么类型的数据和记录也有关系。

2. 固定模式。

在认知技术中,这是开发模型时不可忽视的风险之一。不幸的是,大多数已开发的模型,特别是为投资策略设计的模型,都存在这种风险。

想象一下,你花几个月的时间为投资开发出一个模型。经过多次试验,仍然得到了一个“准确的输出”。但用“真实世界的输入”来尝试该模型时,它可能给你一个毫无价值的结果。

为什么会这样?这是因为模型缺乏可变性。这个模型是使用一组特定的数据构建的。它只对设计时使用的数据有效。

因此,具有安全意识的AI和ML开发人员应该在将来开发任何算法模型时学会管理这种风险。通过输入他们能找到的所有形式的数据可变性,例如,演示数据集(当然这并不是所有的数据)。

3.对输出错误数据的解释可能比较困难。

对输出错误数据的解释是机器学习未来可能面临的另一个风险。想象一下,在如此努力地工作以获得良好的数据之后,你决定和另一个人分享成果——也许是你的老板。

同样的数据结果,你老板的解释或许与你自己的观点都不一致。毕竟他的思维过程与你不同,因此他的见解也与你不同。

这种情况经常发生。这就是为什么数据科学家不仅应该在构建模型时注意,而且还应该在理解和正确解释来自任何设计模型的输出结果的“每一点”时注意。

在机器学习中,没有错误和假设的空间——它必须尽可能完美。如果我们不考虑每一个角度和可能性,就有可能让这项技术危害人类。

Note:对机器发布的任何信息的误读都可能给公司带来厄运。因此,数据科学家、研究人员以及任何相关人员都不应该忽视这方面。他们开发机器学习模型的意图应该是积极的而不是相反。

4. AI和ML还没有被科学的解释。

从真正意义上说,许多科学家仍在努力全面理解AI和ML到底是什么。尽管它们还没在新兴市场站稳脚跟,但许多研究人员和数据科学家仍在努力了解更多信息。

许多人仍然感到害怕,因为他们相信仍然有一些未知的风险尚待了解。

即使是像谷歌、微软这样的大型科技公司仍然不完美。

人工智能聊天机器人Tay Ai由微软公司于2016年3月23日发布。它是通过twitter发布的,目的是与twitter用户互动——但不幸的是,它被认为是种族主义者。它在24小时内被关闭。

Facebook还发现,他们的聊天机器人偏离了最初的脚本,开始用自己创造的一种新语言交流。有趣的是,人类无法理解这种新创造的语言。很奇怪,对吧?

Note:为了解决“存在的威胁”,科学家和研究人员需要了解什么是AI和ML。此外,在正式向公众发布之前,他们还必须测试、测试、再测试机器运行模式的有效性。

5. 这就像一个控制欲极强的不朽独裁者。

机器永远在运行——这是另一个不可忽视的潜在危险。AI和ML机器人不能像人类一样死去,他们是不朽的。一旦他们被训练去做一些任务,他们就会夜以继日,而且常常没有监督。

如果人工智能和机器学习特性没有得到充分的管理或监控,它们可能会发展成为一个独立的杀手机器。当然,这项技术可能对军方有利——但如果机器人不能区分敌人和无辜公民,无辜公民将会遭遇什么?

这种机器模型很容易操作。它们了解我们的恐惧、不喜欢和喜欢,并能利用这些数据来对付我们。注意:人工智能创造者必须准备好承担全部责任,确保在设计任何算法模型时考虑到这一风险。

结论

机器学习无疑是世界上最具技术价值的能力之一,具有现实世界的商业价值——尤其是与大数据技术合并时。

正因为如此,我们不应该忽视这样事实:它需要仔细的计划来适当地避免上述潜在的威胁:数据偏差、固定的模型、错误输出的解释、不确定性和极强的控制欲。

原文标题:The Potential “Holy Shit” Threats Surrounding AI and ML,作者:Ejiofor Francis

【51CTO译稿,合作站点转载请注明原文译者和出处为51CTO.com】

作者:风车云马编译_51CTO
原文链接:http://ai.51cto.com/art/201906/597686.htm