本文档介绍了 ML-For-Beginners 课程中机器学习公平性和伦理方面的知识。它解释了负责任人工智能的原则、与公平性相关的危害类型以及评估和减轻机器学习系统偏差的方法。这些材料对于数据科学家确保其模型公平对待所有用户并避免延续社会偏见至关重要。
有关人工智能伦理更广泛的历史和演变信息,请参阅 机器学习历史。
来源:1-Introduction/3-fairness/README.md1-22
负责任人工智能建立在六项基本原则之上,指导公平和合乎伦理的机器学习系统的开发和部署。
来源:1-Introduction/3-fairness/README.md15-22 1-Introduction/3-fairness/README.md33-93
机器学习中的公平性确保人工智能系统能够公平地对待每个人,并避免对相似人群产生不同的影响。如果不对公平性加以仔细关注,机器学习系统可能会延续和放大现有的偏见。
来源:1-Introduction/3-fairness/README.md33-51
翻译中的性别偏见:在翻译中性职业(例如,从土耳其语翻译成英语)时,系统可能会基于社会偏见分配刻板印象的性别。
面部识别差异:某些面部识别系统在针对某些特定人群(尤其是肤色较深的人)时,错误率明显更高。
传感器技术故障:一些自动传感器(例如皂液分配器)未能检测到肤色较深的人,这表明存在服务质量不公平的现象。
来源:1-Introduction/3-fairness/README.md42-51
在训练机器学习模型之前,进行影响评估有助于识别潜在风险,并确保在整个开发过程中都考虑公平性。
来源:1-Introduction/3-fairness/README.md97-106
负责任人工智能仪表板提供了帮助数据科学家识别和解决其模型中公平性问题的工具。
来源:1-Introduction/3-fairness/README.md109-117
负责任人工智能工具箱提供了一个框架,用于在机器学习项目中实现公平性和其他负责任的人工智能原则。
来源:1-Introduction/3-fairness/README.md109-117 1-Introduction/3-fairness/README.md147-153
将公平性考量整合到整个机器学习开发生命周期中,对于构建负责任的人工智能系统至关重要。
来源:1-Introduction/3-fairness/README.md109-117 1-Introduction/3-fairness/README.md147-153
在识别出公平性问题时,可以采用几种策略来减轻这些问题
| 缓解策略 | 描述 | 实现 |
|---|---|---|
| 预处理 | 在模型训练前处理数据中的偏差 | 数据平衡、重采样、特征转换 |
| 过程内 | 修改学习算法以强制执行公平性 | Fairlearn 的 ExponentiatedGradient、约束优化 |
| 后期处理 | 调整模型输出来实现公平性 | Fairlearn 的 ThresholdOptimizer、校准技术 |
| 多样化的数据收集 | 确保训练数据代表所有群体 | 有针对性的数据收集、合成数据生成 |
| 模型选择 | 选择本身就更公平的算法 | 使用公平性指标比较模型 |
来源:1-Introduction/3-fairness/README.md119-128
以下是一个使用 RAI 工具箱评估分类模型公平性的简化示例
此示例演示了如何使用 RAI 工具箱将公平性评估集成到您的机器学习工作流程中。
来源:1-Introduction/3-fairness/README.md147-153
在实现机器学习系统的公平性时,请考虑以下最佳实践:
来源:1-Introduction/3-fairness/README.md119-128
有关机器学习公平性和伦理的更多信息,请浏览:
刷新此 Wiki
最后索引时间2025 年 4 月 18 日(09b03c)