中新经纬3月24日电 (王玉玲)近日,由中国人民大学高瓴人工智能学院、智能社会治理跨学科交叉平台和基于大数据文科综合训练国家级虚拟仿真实验教学中心联合主办的算法公平性与内容生态建设研讨会在线上举行。对外经济贸易大学数字经济与法律创新研究中心执行主任张欣表示,公平具有相对性,我们不能强求算法达到绝对公平。当我们将算法视作无形的手,以此进行资源分配时,要求公平是理所应当的,但不能绝对化。

张欣提出,算法公平在治理层面具有几个特点,第一,发生算法歧视或者算法偏误的时候具有隐秘性,比如各种各样的智能语言助手,都是设计成女性化形象,且呈现出一种听从的形象,在这一过程中就出现了隐性的由算法设计造成的不公现象。

第二,算法不公平很多时候并非针对个体,而是涉及和影响某些少数群体。因此个人可能难以发觉算法歧视和算法偏误,只有通过群体性的观察才可识别。因此,在治理层面,我们需要一定程度上提供给用户或者处于数据结构当中比较弱势地位的群体达成联合。

第三,算法不公具有结构锁定特性。很多时候,算法不公的发生是因为历史状态下现实社会中不公现象的嵌入和反映。当算法将个体的过去、现在和未来相联结时,一旦出现算法不公,可能会呈现出将相关个体锁定在特定结构的现象。

张欣表示,在治理层面要达到算法公平需要分为三个层面,第一,技术层面。比如中国人民银行出台针对金融算法的审计和影响评估的规定,针对算法公平,有一系列的指标。只要达到了指标,现阶段可认为达到了技术设计层面的公平。

第二,治理层面。3月1日正式实施的《互联网信息服务算法推荐管理规定》,对于企业在推荐算法当中怎样做到无歧视、无偏,有一系列法律层面的规定。因此企业应当以法律法规为依据,构建自身的算法影响和算法审计制度,达到法律规定层面的公平。

第三,生态层面。针对现实生活中存在了一些不公平的现象,比如性别歧视或种族歧视,可以以算法向上向善为原则,进行改善和扭转,因而为算法运行创建一个更好的良性生态。

“技术层面、治理层面、生态层面,三个层面的公平可能也意味着和对应着我们在短期、中期和未来长期三个阶段达到算法公平这一目标的不同层面。”张欣说道。

由此,综合来看,张欣提出几项建议,首先,在技术层面,加强对于算法公平的认证制度的开发;其次,在治理层面,加强对算法的公平审计和算法的影响评估;第三,在生态层面,通过协同治理来推动生态层面的算法公平。(中新经纬APP)

中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。

关键词: 张欣算法公平不能绝对化 应从技术治理生态层面突破