菜单

机器学习的公平性和道德

相关源文件

目的与范围

本文档介绍了 ML-For-Beginners 课程中机器学习公平性和伦理方面的知识。它解释了负责任人工智能的原则、与公平性相关的危害类型以及评估和减轻机器学习系统偏差的方法。这些材料对于数据科学家确保其模型公平对待所有用户并避免延续社会偏见至关重要。

有关人工智能伦理更广泛的历史和演变信息,请参阅 机器学习历史

来源:1-Introduction/3-fairness/README.md1-22

负责任人工智能的核心原则

负责任人工智能建立在六项基本原则之上,指导公平和合乎伦理的机器学习系统的开发和部署。

来源:1-Introduction/3-fairness/README.md15-22 1-Introduction/3-fairness/README.md33-93

理解机器学习中的公平性

机器学习中的公平性确保人工智能系统能够公平地对待每个人,并避免对相似人群产生不同的影响。如果不对公平性加以仔细关注,机器学习系统可能会延续和放大现有的偏见。

来源:1-Introduction/3-fairness/README.md33-51

现实世界中的例子

  1. 翻译中的性别偏见:在翻译中性职业(例如,从土耳其语翻译成英语)时,系统可能会基于社会偏见分配刻板印象的性别。

  2. 面部识别差异:某些面部识别系统在针对某些特定人群(尤其是肤色较深的人)时,错误率明显更高。

  3. 传感器技术故障:一些自动传感器(例如皂液分配器)未能检测到肤色较深的人,这表明存在服务质量不公平的现象。

来源:1-Introduction/3-fairness/README.md42-51

评估和确保公平性

影响评估流程

在训练机器学习模型之前,进行影响评估有助于识别潜在风险,并确保在整个开发过程中都考虑公平性。

来源:1-Introduction/3-fairness/README.md97-106

使用负责任人工智能仪表板进行调试

负责任人工智能仪表板提供了帮助数据科学家识别和解决其模型中公平性问题的工具。

来源:1-Introduction/3-fairness/README.md109-117

RAI 工具箱架构

负责任人工智能工具箱提供了一个框架,用于在机器学习项目中实现公平性和其他负责任的人工智能原则。

来源:1-Introduction/3-fairness/README.md109-117 1-Introduction/3-fairness/README.md147-153

机器学习开发生命周期中的公平性

将公平性考量整合到整个机器学习开发生命周期中,对于构建负责任的人工智能系统至关重要。

来源:1-Introduction/3-fairness/README.md109-117 1-Introduction/3-fairness/README.md147-153

缓解策略

在识别出公平性问题时,可以采用几种策略来减轻这些问题

缓解策略描述实现
预处理在模型训练前处理数据中的偏差数据平衡、重采样、特征转换
过程内修改学习算法以强制执行公平性Fairlearn 的 ExponentiatedGradient、约束优化
后期处理调整模型输出来实现公平性Fairlearn 的 ThresholdOptimizer、校准技术
多样化的数据收集确保训练数据代表所有群体有针对性的数据收集、合成数据生成
模型选择选择本身就更公平的算法使用公平性指标比较模型

来源:1-Introduction/3-fairness/README.md119-128

实现示例

以下是一个使用 RAI 工具箱评估分类模型公平性的简化示例

此示例演示了如何使用 RAI 工具箱将公平性评估集成到您的机器学习工作流程中。

来源:1-Introduction/3-fairness/README.md147-153

实际考量

在实现机器学习系统的公平性时,请考虑以下最佳实践:

  1. 早期整合:从项目开始就解决公平性问题,而不是事后诸葛亮。
  2. 多元化视角:在您的开发团队中包含不同背景和观点的人员。
  3. 持续评估:定期评估模型的公平性问题,尤其是当数据发生变化时。
  4. 情境很重要:公平性定义和指标应适合您的特定应用程序。
  5. 文档记录:创建关于公平性考虑因素和决策的详细文档。

来源:1-Introduction/3-fairness/README.md119-128

进一步学习资源

有关机器学习公平性和伦理的更多信息,请浏览:

来源:1-Introduction/3-fairness/README.md142-154