今天,人工智能(AI)和机器学习(ML)技术影响甚至决定了我们的一些行动。数据科学创新有望改变疾病诊断、应对气候变化和解决其他社会挑战的方式。

然而,随着应用程序被部署在金融和医疗等敏感领域,专家和倡导者开始发出警告:人工智能系统有能力做出公正的决定,但也可能对某些群体存在系统性不公。如果不加以解决,有偏见的人工智能可能会延续甚至扩大成为有害人类的偏见。

企业组织可能不会故意设计不平等的AI/ML模型。然而,偏见仍然以多种形式渗透到算法中,甚至在排除性别、种族或性别认同等敏感变量时也是如此。问题往往在用于训练模型的数据,这些数据反映了其来源——我们周围的现实世界——的不平等。比如偏重男性的招聘算法和传播刻板印象的代码生成模型。最近的一项民意调查发现,超过50%的高管表示,他们对公司使用人工智能的道德和声誉风险“严重”或“极端”担忧。

组织应该如何着手消除无意识的偏见还没有标准答案。尽管有关合乎道德的人工智能系统的辩论已经开始,监管审查会经常占据新闻头条,但很少有人讨论我们如何让从业人员做好应对不公平问题的准备。模型的偏见不仅仅是开发人员的错。如果缺乏减轻危害所需的工具、支持和资源,即使有最好的意图的数据科学家也会陷入伦理困境。

近年来,关于负责任和公平的人工智能的资源越来越多,但要驾驭这些动态,需要的不仅仅是小组讨论和一次性课程。我们需要一种全面的方法来教育人工智能中的偏见,让从开发者、应用者以及监管者的每个人都参与进来。

从传统教育入手

不到四分之一的AI专业教育工作者表示在课堂上进行了人工智能伦理培训。

让未来的领导者能够应对其产品的社会和道德影响的最好方法,是在他们的正规教育中包括有关偏见和公平的课程。虽然这是关键,但教育者当被问及数据科学/机器学习所教授的主题时,分别只有17%和22%的教育工作者回答他们教授过伦理或偏见。

大学应该向更成熟的专业领域寻求指导。以医学伦理学为例,它探讨了创新和伦理学的交叉点上的类似问题。根据1847年美国医学协会通过的《医学道德规范》,这项研究发展成为一个独立的子领域,那些寻求医生和护士专业认证的人都必须学习其指导原则。更多的教育机构应该效仿牛津大学,建立专门的中心,利用哲学等多个领域,指导人工智能领域的公平和公正。

并非所有人都认为那些通常被降级为选修课的独立AI道德课程有效。有专家提出的另一种方法是,通过在正常课程中设置常规科目,进行道德技能建设和反思,将伦理“嵌入”技术培训中,这种方法最近得到了哈佛大学的采纳。

在工作领域提高道德技能

关于AI/ML偏见的正规教育只是迈向修正数据科学伦理偏差的第一步。据调查,在步入社会的工作领域,60%的数据科学组织要么尚未实施任何计划,以确保公平和减少数据集和模型中的偏见,要么未能向员工传达这些计划。同样,ZDNet最近对IT高管的一项调查发现,58%的企业没有为员工提供道德培训。

当然解决方案并不是简单地要求人工智能团队接受千篇一律的道德培训。培训计划应该是整个组织范围内提高意识和采取行动减少有害偏见的一个组成部分。最先进的公司正在将人工智能伦理和问责作为董事会的优先事项,但良好的第一步是制定内部道德标准,并实施定期评估,以确保最新的最佳做法到位。例如,团队应该聚在一起,定义偏见和可解释性等术语在他们的工作环境中的含义。

有了标准,培训可以使指导方针实施。《哈佛商业评论》(Harvard Business Review)建议,不仅仅是提高意识,还要授权整个组织的员工提出问题,并适当解决问题。对于技术和工程团队,公司应该准备投资于新的商业工具或承担专门的第三方培训的成本。在FICO最近的一项调查中,三分之二的公司无法解释人工智能解决方案是如何实现预测的,考虑到这一点,开发人员和工程师需要的将不仅仅是简单的研讨会或证书课程。

人工智能伦理培训也应该是企业长期招聘战略的基石。首先,提供道德指导将吸引注重价值观的年轻人才。同时培养这些技能的正式举措也将产生一个积极的反馈回路,企业利用培训项目向大学发出雇主的明确信号。今天,通过提供这些主题的培训,领导者可以帮助建立一支准备好并能够面对更加复杂问题的团队。

在过去的几年里,围绕人工智能伦理的对话一直是一个持续的讨论点,虽然我们可能很容易忽视这些讨论,但关键是不要让人工智能伦理仅成为一个流行词。随着欧盟和通用数据保护条例(GDPR)的更新,有关人工智能使用和法规将继续存在。虽然减轻有害偏见将是一个漫长反复的过程,但从业者和组织需要在评估他们的模型和加入关于人工智能伦理时保持警惕。

关键词: 用全生命周期的方法对抗AI ML中的有害偏见