菜单

负责任的AI实践

相关源文件

本文档概述了在应用程序中负责任地使用生成式 AI 的道德考量和最佳实践。它涵盖了与生成式 AI 相关的潜在危害、缓解策略、评估方法以及确保 AI 系统得到合乎道德的开发和使用的实现模式。有关专门保护 AI 应用程序的信息,请参阅保护 AI 应用程序

理解负责任的 AI

负责任的 AI 指的是以合乎道德、透明、公平和可问责的方式开发和部署 AI 系统。随着生成式 AI 模型变得越来越复杂和广泛使用,了解潜在风险并实施缓解措施至关重要。

来源

  • 01-introduction-to-genai/README.md
  • 03-using-generative-ai-responsibly/README.md
  • 13-securing-ai-applications/README.md

生成式 AI 的潜在危害

幻觉

生成式 AI 模型可以生成看似真实但实际上不正确或虚构的内容。当用户未经核实就信任 AI 生成的内容时,这些“幻觉”可能导致错误信息传播或做出错误的决策。

有害内容

AI 模型可能会无意中生成冒犯性、偏见性或有害内容,尤其是在它们经过未经筛选的互联网数据训练时。这包括

  • 强化刻板印象或偏见的内容
  • 不当或不安全的服务
  • 可能引起情绪困扰的内容

公平性问题

AI 系统可能会表现出训练数据中存在的偏见,从而导致某些群体受到不公平对待或代表性不足。这可能表现为

  • 少数群体代表性不足或错误代表
  • 有偏见的语言或表述
  • 不同人口群体获得的服务质量不均

来源

  • 03-using-generative-ai-responsibly/README.md
  • 13-securing-ai-applications/README.md

缓解策略

模型选择

为您的用例选择合适的模型对于负责任的 AI 实施至关重要

考量因素描述
模型功能选择具有适合您需求的适当功能的模型
模型局限性了解模型无法可靠做什么
模型偏见考虑模型中已知的偏见或局限性
微调选项评估在特定领域数据上进行微调是否有帮助

安全系统

实施安全措施以预防、检测和处理潜在问题

元提示和基础

使用精心设计的系统提示和基础技术可以显著减少幻觉和有害内容

  1. 系统消息:定义 AI 回复的界限
  2. 基于已验证数据的基础:将回复链接到已验证的信息源
  3. 上下文限制:在提示中明确说明模型的局限性

负责任 AI 的用户体验设计

设计促进负责任 AI 使用的用户体验

用户体验原则实现
透明度清楚地传达内容是否由 AI 生成
用户控制允许用户调整 AI 参数或覆盖建议
反馈机制提供用户报告 AI 回复问题的途径
错误恢复能力设计能够优雅处理 AI 错误的界面

来源

  • 02-exploring-and-comparing-different-llms/README.md
  • 12-designing-ux-for-ai-applications/README.md
  • 13-securing-ai-applications/README.md

评估方法

准确率

衡量 AI 生成内容的准确性

  • 与可靠来源的事实核查
  • 领域专家评审
  • 根据既定基准进行测试

相关性

评估 AI 回复是否满足用户需求

  • 用户满意度指标
  • 任务完成率
  • 与预期用例的一致性

一致性

评估模型在不同输入下的可靠性

  • 相似输入下的回复差异
  • 不同用户交互之间的稳定性
  • 与既定指南或政策的一致性

来源

  • 03-using-generative-ai-responsibly/README.md
  • 13-securing-ai-applications/README.md

实现模式

本节讨论负责任的 AI 原则如何在生成式 AI 应用程序的代码结构中实现。

输入验证和清理

在将提示发送到模型之前,实施输入验证以

  • 过滤潜在的有害输入
  • 检测提示注入尝试
  • 清理用户输入以防止安全漏洞

配置模型参数以确保安全

在调用语言模型 API 时,配置参数以增强安全性

参数目的建议
temperature (温度)控制随机性。较低的值(0.0-0.5)用于事实性回复
max_tokens (最大 token 数)限制回复长度设置适当的限制以防止输出过多
frequency_penalty (频率惩罚)减少重复适中的值(0.5-1.0)以避免无益的重复
presence_penalty (存在惩罚)鼓励多样性对需要控制的创意应用程序很有用

系统消息

使用系统消息来建立行为准则

响应过滤和验证

在收到模型回复后,实施验证以

  • 检查潜在的有害内容
  • 尽可能验证事实准确性
  • 确保与预期用例的一致性

来源

  • 06-text-generation-apps/README.md
  • 11-integrating-with-function-calling/README.md
  • 13-securing-ai-applications/README.md

实际应用中的负责任 AI

下图说明了负责任的 AI 实践如何融入生成式 AI 应用程序的开发生命周期

案例研究:教育类应用

对于我们的教育初创公司场景,实施负责任的 AI 实践尤其重要,因为我们服务的是学生和教育工作者。关键考虑因素包括

  1. 适合年龄的内容:为年幼的学生实施更强大的内容过滤器
  2. 教育准确性:对事实性内容进行额外的验证
  3. 公平评估:确保 AI 不会加剧教育评估中的偏见
  4. 隐私保护:对学生数据进行特别考虑

用于受控响应的函数调用

使用函数调用来构造 AI 输出可以提供更好的控制和安全性

这种方法通过预定义的函数来引导输出,限制了模型生成任意响应的能力,从而降低了有害或不正确内容的风险。

来源

  • 11-integrating-with-function-calling/README.md
  • 12-designing-ux-for-ai-applications/README.md

最佳实践清单

在实施生成式 AI 应用程序时,请考虑以下最佳实践

类别实践实现
设计清晰的 AI 标识清楚地标明内容是否由 AI 生成
用户控制允许用户指定约束和偏好
可访问性确保所有用户都能访问 AI 功能
开发输入验证清理和验证所有输入
输出过滤在向用户显示回复之前进行审查
监控实施日志记录以跟踪 AI 行为
评估定期测试使用多样化的输入和用户场景进行测试
偏见评估定期检查回复中的偏见
用户反馈收集并响应用户关切
治理文档记录 AI 的功能和局限性
审查流程为重大变更建立审查流程
事件响应制定处理 AI 相关问题的计划

来源

  • 03-using-generative-ai-responsibly/README.md
  • 12-designing-ux-for-ai-applications/README.md
  • 13-securing-ai-applications/README.md

结论

实施负责任的 AI 实践并非一劳永就,而是一个持续的过程,应将其融入开发和部署的每个阶段。通过了解潜在危害、实施适当的缓解策略以及定期评估 AI 系统,开发人员可以创建既强大又合乎道德的生成式 AI 应用程序。

本文档中概述的实践为负责任的 AI 实施奠定了基础,但在快速发展的领域中,了解新兴的最佳实践和不断变化的道德考量非常重要。