联系我们
产品列表
联系我们
AI透明化,面临着一个悖论

AI透明化,面临着一个悖论

[来源:哈佛商业评论]    [作者]    [日期:2020-03-26 09:02]    [热度:]

近年来,学者和业内人士共同呼吁,要进步人工智能模型内部运作进程的通明度,并且提出许多充沛的理由。通明度有助于缓解公正、轻视和信赖方面的难题——对这几个方面的重视正在不断提高。举例而言,苹果公司新的信用卡事务被指出借款形式中存在性别轻视,而亚马逊在发现一款人工智能招聘东西轻视女人后就将之抛弃。

可是,与此同时,人们越来越清楚地意识到,人工智能的通明宣布自身也会带来危险:解说进程或许遭到黑客侵略,发布更多信息或许会让人工智能更简单遭到进犯,并且宣布信息有或许让企业更简单遭到申述或引来监管举动。

咱们能够称之为人工智能的“通明度悖论”——尽管生成更多有关人工智能的信息或许会带来实在的优点,但也有或许带来新危险。要处理这一悖论,各安排需求对办理人工智能危险的方法、危险相关信息以及共享和维护这些信息的方法,进行细心考虑。

AI通明化,面对着一个悖论

近来的一些研讨显现出了这种趋势。咱们先来看看哈佛大学和加州大学欧文分校的学者于2019年12月宣布的一篇研讨论文。这篇论文要点探讨了用于解说黑箱算法的两大技能LIME和SHAP的变体怎么有或许遭到黑客侵略。

关于LIME的功用,2016年该东西发布之初的论文做了解说。这个图画分类东西能够识别出其他东西难以处理的图画:经过琴桥和指板部分识别出木吉他,经过狗脸右侧的详细脸部特征识别出拉布拉多犬。

LIME,以及更广泛意义上的可解说人工智能运动,被赞称为一项能够让不通明的算法变得愈加通明的重大突破。可解说人工智能的好处已被广泛认可,得到学者和技能专业人士的交口称赞,我自己也是如此。

可是,LIME和SHAP遭到新进犯的潜在或许性,暴露出一个被忽视的缺点。正如研讨所示,AI做出的解说或许被故意篡改,导致人们对模型及其给出的解说失掉信赖。

并且,论述人工智能通明度方面存在潜在危险的研讨论文并不止这一篇。2019年早些时候,雷扎·肖克里(Reza Shokri)等研讨者论述了宣布机器学习算法信息会怎么导致算法更易遭到进犯。与此同时,加州大学伯克利分校的研讨人员证明,只需运用算法给出的解说,就有或许盗取悉数算法。

跟着安全和隐私研讨人员把更多的精力集中于人工智能方面,这些研讨和其他许多研讨都得出了相同的定论:模型发明者揭露的算法信息越多,居心不良者所能形成的危害就越大。这意味着,发布一项模型内部运作进程的信息,实践上会导致其安全功能下降,或许有或许让一家公司面对更多晦气因素。简而言之,一切数据均带来危险。

好消息呢?各安排安排长久以来都在隐私、安全及其他范畴面对通明度悖论,现在只需求再加上针对人工智能的处理方法就能够了。

首要,企图运用人工智能的企业需求认识到通明度的价值。当然,这并不是说通明度不值得寻求,仅仅阐明通明度也有晦气的一面,需求企业进行全面了解。企业应当考虑这些价值,树立更完善的危险模型,借以确认怎么运用可解说的模型,以及揭露多少相关信息。

其次,各安排也有必要认识到,人工智能范畴的安全问题日益遭到重视。正如我和我的搭档最近在隐私权未来论坛(Futureof Privacy Forum)上所说的那样,跟着人工智能的使用规模添加,人们肯定会发现更多的安全缺点和缝隙。实践上,安全有或许是人工智能使用方面最大的长时间妨碍之一。

最终一点,在创立并开发人工智能时,应尽早并且尽或许频频地咨询律师,这一点非常重要。归入法务部分,能够发明一个揭露且受法令维护的环境,使得企业能够在不形成更多晦气因素的情况下,彻查自己的模型,找出能够想到的每一个缝隙。

实践上,这正是律师在法令特权下作业的原因,他们搜集的信息得到维护,鼓舞当事人去全面了解自己的危险,而不是隐秘任何潜在的错误行为。比方在网络安全范畴,律师的参加度很高,法务部分常常参加办理危险评价,乃至会在安全事故发生后参加后续处理。人工智能范畴也应该采纳相同的做法。

在数据分析范畴,人们一般以为数据越多越好。但就危险办理而言,数据自身常常便是危险的来历。现在这一点也开端适用于人工智能范畴。

作者:安德鲁·伯特是Immuta公司首席法务。

关键字: