本文档概述了 funNLP 存储库中用于训练、微调和优化大型语言模型 (LLM) 的资源。它侧重于高效的训练方法、面向资源受限环境的方法以及使预训练模型适应特定任务的技术。有关 LLM 模型和框架的信息,请参阅 LLM 模型和框架;有关评估技术,请参阅 LLM 评估和基准测试。
大型语言模型 (LLM) 以其令人印象深刻的能力彻底改变了自然语言处理,但由于其庞大的规模和计算需求,训练和微调这些模型带来了重大挑战。本节涵盖了训练和优化 LLM 的各种方法,特别侧重于参数高效方法,这些方法使得即使在计算资源有限的情况下也能微调模型。
来源: README.md207-236
参数高效微调方法通过仅更新一小部分参数并保持预训练模型的大部分冻结,从而允许使用大大减少的计算资源来适应大型模型。
低秩适应 (LoRA) 及其量化变体 QLoRA 是最流行的参数高效微调技术之一。QLoRA 尤其值得注意,因为它能够在一个具有 48GB 内存的消费级 GPU 上微调高达 65B 参数的模型。
值得注意的实现包括
来源: README.md210-211 README.md227-231
对于拥有大量计算资源的企业,完整微调方法提供了最大的灵活性和性能。
DeepSpeed Chat 提供了一键式 RLHF(来自人类反馈的强化学习)训练体验,简化了用人类偏好数据训练 LLM 的复杂过程。
RLHF 已成为训练现代 LLM 以符合人类价值观并产生更有帮助、无害和诚实响应的关键技术。
该存储库的一个重点是使 LLM 能够在资源受限的环境中进行微调,从而使那些没有企业级计算基础设施的研究人员和开发人员更容易获得这项技术。
来源: README.md213-217 README.md221-225
该存储库包含几个专门针对中文语言模型适应的解决方案。
这些资源使得在无需从头开始训练 LLM 所需的海量计算资源的情况下,也能创建高质量的中文语言模型。
来源: README.md210-211 README.md227-230
LLM 的有效训练需要结构良好的工作流程和流水线来管理数据准备、训练和评估的复杂过程。
支持这些工作流程的著名工具和框架包括:
来源: README.md217-223 README.md234-235 README.md232-236
有各种优化技术可以提高 LLM 训练和推理的效率和性能。
来源: README.md232-236
该存储库包含许多实用指南和资源,供对 LLM 训练和微调感兴趣的人士参考。
这些资源为 LLM 训练和微调的实际方面提供了宝贵的见解,帮助开发人员驾驭现代语言模型的复杂领域。
来源: README.md162-166 README.md218-219
LLM 训练和微调是一个快速发展的领域,新的技术和方法正在被开发出来,以使这些强大的模型更加易于访问和高效。funNLP 存储库提供了全面的资源、工具和指南集合,以帮助研究人员和开发人员驾驭这个复杂的领域,特别关注资源高效的方法和针对中文语言模型的解决方案。
刷新此 Wiki
最后索引时间2025 年 4 月 18 日(29f4ac)