WAMDM实验室论文入选《计算机研究与发展》高被引论文TOP3

2022125日,WAMDM实验室在国内计算机领域顶级期刊《计算机研究与发展》上发表的综述论文“机器学习的隐私保护研究综述”(2020572期),经《计算机研究与发展》编委会评定,入选2020年论文高被引TOP10(排名TOP3)。该论文由孟小峰教授和博士生刘俊旭合作完成。该研究成果得到了国家自然科学基金项目、国家重点研发项目的资助。

《计算机研究与发展》是中国科学院计算技术研究所和中国计算机学会联合主办的学术性期刊,同时也是CCF推荐A类中文期刊,刊登我国计算机领域最高水平的学术论文和最新科研成果,刊登内容主要为综述、软件技术、信息安全、计算机网络、体系结构、人工智能、计算机应用技术(图形图象、自然语言处理、信息检索)、数据库技术、存储技术及计算机基础理论等相关领域。多年来,该刊一直被评为我国计算机类核心期刊、中国精品科技期刊,是国务院学位办指定的评估学位与研究生教育的“中文重要期刊”;已被多个国际著名的检索系统收录,如美国《工程索引》(EI)、日本《科学文献速报》、俄罗斯《文摘杂志》等;其影响因子和总被引频次在同类学术期刊中名列前茅。该期刊对我国计算机科学技术的发展和高技术领域人才的培养发挥了巨大的作用,是中国计算机类最有影响的学术期刊之一。

机器学习的隐私问题是当前人工智能伦理研究的子问题,除此之外还包括数据伦理、算法偏见等。人们的最终目标是实现以人为本的人工智能,只有这样,社会才能真正信任技术,从而使人工智能长久地造福于人类。为此,20194月,欧盟委员会(European Commission)发布人工智能道德准则7项要求,内容包括隐私和数据管理(privacy and data governance),透明性(transparency),多样性非歧视和公平性(diversitynon-discrimination and fairness)等实现上述准则离不开对机器学习可解释性的探索。理论上,可解释使人们有能力验证模型是否与自身需求一致,能够提供决策结果的审计和溯源,保证了决策公平,从而为解决伦理问题提供重要依据;同时,一些可解释性研究方法也可用作隐私保护算法设计的工具。但实现上,可解释的模型与其隐私保护之间却存在难以调和的矛盾,主要表现在2个方面:第一,实现可解释的前提是保证数据和模型的正确性,但基于扰动的隐私保护方法往往会导致隐私模型与真实模型存在偏差;第二,模型的可解释性越好,意味着人们能够对模型了解得更透彻,这也为攻击者提供了更多实施隐私攻击的机会。

未来一方面要求研究人员合理设计隐私保护方法和可解释分析框架,另一方面还需建立数据透明治理体系,保证数据在采集、存储、共享和决策过程中的透明,同时结合适当的法律法规与政策引导,此为解决人工智能伦理问题之关键。

Maintained by WAMDM Administrator() Copyright © 2007-2017 WAMDM, All rights reserved