中新经纬3月24日电 (王玉玲)近日,由中国人民大学高瓴人工智能学院、智能社会治理跨学科交叉平台和基于大数据文科综合训练国家级虚拟仿真实验教学中心联合主办的算法公平性与内容生态建设研讨会在线上举行。中国科学技术大学博士后陈佳伟提出,应该在动态或者交互式的场景当中去研究公平,追求长期累积的公平性。

随着反馈循环的过程,公平性问题可能在用户和系统交互的过程而放大,可能会有“蝴蝶效应”现象产生。“比如说推荐系统,给一个青少年推荐游戏,他可能就会沉迷,给另外一个青少年推的是科研问题,他成长路线就可能不同。”陈佳伟说道。

陈佳伟表示,算法公平性的评估指标是非常难定义和计算的,公平性的定义需要与多个相关数据进行对比。对于一些比较高级的公平性指标,它要求我们观察只改变属性的情况下,推荐策略是否会不同。对于这样的指标,我们往往需要做一些反事实推演或者找特定数据进行匹配,这个过程可能很艰难。

为解决公平性评估问题,陈佳伟提出三个未来值得研究的点。第一,统一的公平性方法,从每个过程中分析产生偏差的原因和并进行纠正会很困难,因此需要从结果层面统一定义公平并探索一种普适的纠偏方法。第二,设置基准数据集和评估标准。第三,应该在动态或者交互式的场景当中去研究公平,追求长期累积的公平性。算法就应该在交互过程当中找到公平性的问题,及时发现然后进行弥补。“对于推荐,要考虑系统和用户动态演化的过程,去探索长期累积的公平性。”陈佳伟说道。(中新经纬APP)

中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。

关键词: 陈佳伟公平性评估指标难以定义和计算 应在动态场景中探