人工智能的伦理道德: 负责任的AI构建指南

通过合乎道德的人工智能技术、最大限度地减少整个模型构建过程中的偏见

人们往往将人工智能伦理置于模型本身的角度予以考虑。也就是说,重点在于模型的预测和结果的伦理道德及其产生的影响。虽然大多数公司都注重减少模型中的偏见,但还不足以说合乎道德的 AI 技术已经到位。谈及负责任的 AI 时,我们需要将整个生态系统考虑在内。

在实施合乎道德的 AI 时,考虑整个构建过程至关重要:构建 AI 模型的基础是什么?AI 模型起什么作用?该模型会产生什么影响?这些只是公司需要考虑的诸多重要问题中的一部分。实际上,许多问题的答案不仅与 AI 有关,还与企业的社会责任有关。

尽管问题棘手,但也有好消息。以负责任的态度构建的现实世界AI 往往更成功。

四个关键的人工智能道德伦理考虑因素

通过合乎道德的人工智能技术、最大限度地减少整个模型构建过程中的偏见

企业在致力于构建合乎道德的 AI 时,需要围绕整个 AI 构建过程的各个方面探讨伦理问题——从模型偏见,到数据安全性,再到可解释性。最后,他们还必须考虑系统的预期意图,以及模型不仅对其业务还将对社会产生什么样的影响。

偏见

“人类的偏见比 AI 系统的偏见更难消除。”——普林斯顿大学奥尔加·鲁萨科夫斯基 (Olga Russakovsky)。

偏见是 AI 领域的重大挑战。从一开始时就采取偏见缓解措施的企业,AI 构建过程会很顺利。如果不保持警惕,偏见就可能在 AI 开发和生产的各个阶段被引入模型,从一开始就对合乎伦理的AI 部署构成阻碍。

数据标注阶段尤其重要,因为您选择的数据和您选择的数据标注者都会直接影响引入模型的偏见类型。由美国男性组成的白人团队标注的数据看起来不同于来自不同种族、性别和地域的成员组成的团队标注的数据。数据在各方面均需实现多元化。

许多组织依靠遍布全球的众包数据标注员资源,但众包的性质决定了不正确的使用仍然会引入偏差。众包通常是需求方和标注员之间的短期承诺。分析表明,标注员将大约三分之二的时间用于寻找工作,而这些工作通常既枯燥,工资又低。市场竞争导致少量的标注员提交大量可用的工作,这便使得数据中观点的多元化程度降低。

这些问题可以通过恢复人性化的众包来解决,而这正是澳鹏的偏见最小化框架的目的。该框架使用机器学习 (ML) 和统计模型来优化作业启动和可用性。在每种使用场景中,该框架都会提高判断的准确性,缩短工作完成时间,最大程度地提高标注员的利润和满意度,并减少数据集偏见。

该框架提供了实时且按需的智能众包标注流程。它的实施可以为每个作业创建最适合工作特定需求的、更平衡的标注员集合。

而这个偏见最小化框架只是负责任众包的一个组成部分。查看我们的众包道德准则了解更多信息。

安全性

数据安全和隐私是企业面临的另一项挑战。企业常常因为未在项目开始前制定数据战略或治理计划而犯错。但是,数据所涉及的不仅仅是隐私问题。

例如,作为金融服务操作的一部分收集的数据通常包含敏感和机密数据,需要采取额外的安全措施来处理。适当的数据合作伙伴将提供各种安全选项来满足您的特定需求,并通过严格的安全标准来确保正确处理您的客户数据。寻找的数据合作伙伴应符合特定行业或特定地区的数据法规,例如 SOC2 Type II、HIPAA、GDPR、CCPA,并提供安全数据访问(对 PII 和 PHI 至关重要)、安全标注和现场服务选项、私有云部署、内部部署以及基于 SAML 的单点登录等选项。

可解释性

创建一个能够提供准确预测的 AI 模型,只有当它能够向客户予以解释、为其理解和信任,才能算创建成功。由于基于客户信息的模型开发很普遍,因此客户希望确保对其个人信息的收集是负责任的,处理和存储是安全的,有些客户甚至希望了解数据使用方式的基本原则。

尽管最先进的 AI 应用很难解释,但您始终可以返回用于开发模型的训练数据,并从数据结构、输入和输出中获得一些可解释性。验证和再训练流程可以使您更加了解模型如何做出预测并让您的客户满意。

影响

在进行任何 AI 尝试之前,团队应该提出一些与影响有关的关键 AI 伦理问题:我的模型打算做什么?我创建的模型会对我的业务、构建模型的人员、最终用户和社会产生什么影响?当我的模型做出错误的决定时又会发生什么?

这类问题将促使您构建出在最佳情况下对所有利益关系人都具有积极影响的模型。但是,如果您回避这些问题或无法正确回答这些问题,则可能面临意想不到的后果。表现不佳的模型可能会做出歧视性的决策,例如,AI 赋能的招聘工具表现出对女性的偏见,或者人脸识别软件难以识别肤色较深的面孔。

这些结果不仅对制作模型的公司造成问题(可能面临信誉下降和收入损失),而且对最终用户和整个社会造成问题。在部署之前和之后审查模型影响将确保您的 AI 模型成功实现其目的。

人工智能伦理道德始于数据

要响应对负责任 AI 的号召,必须自始至终应用 AI 伦理标准。最重要的是,AI 模型需要高质量的训练数据,这些数据要以负责任的方式从多元化的标注员那里获得,才能有效发挥作用。偏见最小化应该作为整个模型构建过程甚至部署之后(此时模型可能发生偏差)最重要的考虑因素。定期使用新数据重新训练模型有助于发现或防止偏见,并随着时间的推移保持模型的准确性。这样做可以确保模型继续按预期运行,避免对企业或消费者造成不必要的影响。

负责任的 AI 不仅是一个哲学概念,而且是 AI 领域的所有企业都必须采用的方法。以负责任的方式构建的 AI 会更加成功,并且可以使所有人受益,无论其种族、性别、地理位置或背景如何。澳鹏始终致力于负责任AI的部署,与世界经济论坛建立了伙伴关系,并且拥有与多元化众包人员长期合作的经历。如需详细了解我们的专家团队,请点击这里

Language