本文档概述了在应用程序中负责任地使用生成式 AI 的道德考量和最佳实践。它涵盖了与生成式 AI 相关的潜在危害、缓解策略、评估方法以及确保 AI 系统得到合乎道德的开发和使用的实现模式。有关专门保护 AI 应用程序的信息,请参阅保护 AI 应用程序。
负责任的 AI 指的是以合乎道德、透明、公平和可问责的方式开发和部署 AI 系统。随着生成式 AI 模型变得越来越复杂和广泛使用,了解潜在风险并实施缓解措施至关重要。
来源
生成式 AI 模型可以生成看似真实但实际上不正确或虚构的内容。当用户未经核实就信任 AI 生成的内容时,这些“幻觉”可能导致错误信息传播或做出错误的决策。
AI 模型可能会无意中生成冒犯性、偏见性或有害内容,尤其是在它们经过未经筛选的互联网数据训练时。这包括
AI 系统可能会表现出训练数据中存在的偏见,从而导致某些群体受到不公平对待或代表性不足。这可能表现为
来源
为您的用例选择合适的模型对于负责任的 AI 实施至关重要
| 考量因素 | 描述 |
|---|---|
| 模型功能 | 选择具有适合您需求的适当功能的模型 |
| 模型局限性 | 了解模型无法可靠做什么 |
| 模型偏见 | 考虑模型中已知的偏见或局限性 |
| 微调选项 | 评估在特定领域数据上进行微调是否有帮助 |
实施安全措施以预防、检测和处理潜在问题
使用精心设计的系统提示和基础技术可以显著减少幻觉和有害内容
设计促进负责任 AI 使用的用户体验
| 用户体验原则 | 实现 |
|---|---|
| 透明度 | 清楚地传达内容是否由 AI 生成 |
| 用户控制 | 允许用户调整 AI 参数或覆盖建议 |
| 反馈机制 | 提供用户报告 AI 回复问题的途径 |
| 错误恢复能力 | 设计能够优雅处理 AI 错误的界面 |
来源
衡量 AI 生成内容的准确性
评估 AI 回复是否满足用户需求
评估模型在不同输入下的可靠性
来源
本节讨论负责任的 AI 原则如何在生成式 AI 应用程序的代码结构中实现。
在将提示发送到模型之前,实施输入验证以
在调用语言模型 API 时,配置参数以增强安全性
| 参数 | 目的 | 建议 |
|---|---|---|
temperature (温度) | 控制随机性。 | 较低的值(0.0-0.5)用于事实性回复 |
max_tokens (最大 token 数) | 限制回复长度 | 设置适当的限制以防止输出过多 |
frequency_penalty (频率惩罚) | 减少重复 | 适中的值(0.5-1.0)以避免无益的重复 |
presence_penalty (存在惩罚) | 鼓励多样性 | 对需要控制的创意应用程序很有用 |
使用系统消息来建立行为准则
在收到模型回复后,实施验证以
来源
下图说明了负责任的 AI 实践如何融入生成式 AI 应用程序的开发生命周期
对于我们的教育初创公司场景,实施负责任的 AI 实践尤其重要,因为我们服务的是学生和教育工作者。关键考虑因素包括
使用函数调用来构造 AI 输出可以提供更好的控制和安全性
这种方法通过预定义的函数来引导输出,限制了模型生成任意响应的能力,从而降低了有害或不正确内容的风险。
来源
在实施生成式 AI 应用程序时,请考虑以下最佳实践
| 类别 | 实践 | 实现 |
|---|---|---|
| 设计 | 清晰的 AI 标识 | 清楚地标明内容是否由 AI 生成 |
| 用户控制 | 允许用户指定约束和偏好 | |
| 可访问性 | 确保所有用户都能访问 AI 功能 | |
| 开发 | 输入验证 | 清理和验证所有输入 |
| 输出过滤 | 在向用户显示回复之前进行审查 | |
| 监控 | 实施日志记录以跟踪 AI 行为 | |
| 评估 | 定期测试 | 使用多样化的输入和用户场景进行测试 |
| 偏见评估 | 定期检查回复中的偏见 | |
| 用户反馈 | 收集并响应用户关切 | |
| 治理 | 文档 | 记录 AI 的功能和局限性 |
| 审查流程 | 为重大变更建立审查流程 | |
| 事件响应 | 制定处理 AI 相关问题的计划 |
来源
实施负责任的 AI 实践并非一劳永就,而是一个持续的过程,应将其融入开发和部署的每个阶段。通过了解潜在危害、实施适当的缓解策略以及定期评估 AI 系统,开发人员可以创建既强大又合乎道德的生成式 AI 应用程序。
本文档中概述的实践为负责任的 AI 实施奠定了基础,但在快速发展的领域中,了解新兴的最佳实践和不断变化的道德考量非常重要。