大模型时代的模型运维与部署:LLMops

1 LLMOps介绍1.1 关联定义

术语 LLMOps 代表大型语言模型运维。它的简短定义是 LLMOps 是 LLM 的 MLOps。这意味着 LLMOps 是一组工具和最佳实践,用于管理 LLM 支持的应用程序的生命周期,包括开发、部署和维护。

因此,LLMOps 是一组工具和最佳实践,用于管理 LLM 支持的应用程序的生命周期。它可以被视为 MLOps 的子类别,因为 LLM 也是 ML 模型。

1.2 LLMOps 与 MLOps

首先MLOps 包含LLMOps, 但是,MLOps 和 LLMOps 之间的差异是由我们使用经典 ML 模型与 LLM 构建 AI 产品的方式不同造成的。差异主要影响数据管理、实验、评估、成本和延迟。

2 LLMOps实现步骤

图片[1]-大模型时代的模型运维与部署:LLMops-JieYingAI捷鹰AI

在这里插入图片描述

几个LLMops的步骤:

2.1 数据管理2.1.1 数据清洗和预处理技术

原始数据可能存在噪声和结构混乱,因此在输入LLM之前需要进行清洗和预处理。诸如标记化、小写化和停用词去除等技术可以标准化和简化文本。此外,拼写检查、去重和异常值移除进一步完善数据集,确保LLM的高质量输入。

2.1.2 数据标记和注释

在监督学习任务中,准确和一致的标记数据至关重要。将人类专家参与到注释过程中有助于确保高质量的标记数据。人在循环(human-in-the-loop)方法特别适用于需要专家判断的复杂、领域特定或模糊的案例。Amazon Mechanical Turk等平台可以帮助AI团队快速、经济高效地收集大规模标注数据。这些平台可以将标注任务分配给许多来自不同背景的工作者,提高标注质量和覆盖范围。

2.1.3 数据存储、组织和版本控制

在LLMOps中,有效管理大量数据至关重要。选择合适的数据库和存储解决方案有助于在LLM的整个生命周期中进行数据存储、检索和操作。

版本控制对于管理数据变更和跟踪其演变至关重要。数据版本控制系统允许AI团队跟踪数据集版本,促进协作,确保实验的可重复性。清晰而有组织的数据历史有助于团队高效地迭代他们的LLMs,并随时间提高性能。

2.1.4 数据合规性检验

合规性和法规要求 在处理敏感数据时,合规性和法规要求是不可忽视的。根据不同国家和行业的要求,必须采取适当的安全措施来保护用户数据。例如,欧洲的通用数据保护条例(GDPR)对个人数据的处理有明确的规定,违反规定可能面临严重的罚款。

数据匿名化和去标识化 为了保护用户隐私,必须对数据进行匿名化和去标识化处理。这涉及删除或脱敏个人身份信息,以确保数据无法与特定个体关联。

模型隐私和安全性 确保模型的安全性对于防止未经授权的访问和潜在的攻击非常重要。对模型进行加密、访问控制和审计跟踪是维护模型安全的关键措施。

伦理和公平性 伦理框架和指南 开发和使用LLM应该遵守伦理框架和指南。例如,美国人工智能行业协会(Partnership on AI)提供了《人工智能发展与实施指南》,其中包括对透明度、责任、公平性和隐私的建议。

公平性和偏见管理 LLM的训练数据和模型输出可能存在偏见,这可能会导致不公平的结果。应该采取措施来监测和减轻这些偏见,例如通过数据重新采样、后处理或使用公平性指标进行评估。

2.2 基础模型的选择

开发人员必须根据性能、成本、易用性和灵活性之间的权衡,在两种类型的基础模型之间做出选择:专有模型或开源模型。

图片[2]-大模型时代的模型运维与部署:LLMops-JieYingAI捷鹰AI

在这里插入图片描述

专有模型是拥有大量专家团队和大量 AI 预算的公司所拥有的闭源基础模型。它们通常比开源模型更大,因此性能更好。它们也是现成的,因此易于使用。

专有模型的主要缺点是它们昂贵的 API(应用程序编程接口)。此外,闭源基础模型为开发人员提供的适应灵活性较低或没有。

专有模型提供商的示例是:

开源模型通常在作为社区中心的Hugging Face上进行组织和托管。通常,它们是比专有模型功能更小的模型。但从好的方面来说,它们比专有模型更具成本效益,并为开发人员提供了更大的灵活性。

开源模型的例子是:

其中开源模型需要留意是否商用

2.3 迭代和提示管理

LLM 在生产调查[4]中提到的一个问题是模型准确性和幻觉。 这意味着以您想要的格式从 LLM API 获取输出可能需要一些迭代,而且,如果 LLM 不具备所需的特定知识,他们可能会产生幻觉。为了解决这些问题,您可以通过以下方式使基础模型适应下游任务:

传统深度学习里对于实验追踪与记录有着非常完善的支持,但目前的 prompt 开发与迭代还在很早期的阶段,主要还是因为不同 prompt 产生的效果并不好自动化评估。

图片[3]-大模型时代的模型运维与部署:LLMops-JieYingAI捷鹰AI

在这里插入图片描述

因此现阶段比较常见的做法就是通过 git 来管理 prompt 版本。如果有更复杂的需求,例如希望把 prompt 的应用逻辑解耦,或者引入业务人员来优化 prompt,以及通过单独的产品工具来快速评估管理不同的 prompt 甚至模型接口,那么就需要引入更加复杂的产品。这方面可以持续关注之前的 experiment tracking 产品,包括 WandB,MLFlow 等。

2.4 测试+评估

评价的必要性

评价的难点

两个关键要素:测试数据、评价指标:

测试数据构建的建议

指标选择建议

图片[4]-大模型时代的模型运维与部署:LLMops-JieYingAI捷鹰AI

在这里插入图片描述

通过 LLM 来做评估的具体方法包括:

2.5 部署

部署LLM(语言模型)API可能很简单,但是如果API调用背后有很多逻辑,则会变得更加复杂。 提高LLM输出质量的技术包括自我评价、采样多个输出和集成技术。

2.6 监控

监视LLM涉及查看用户满意度和定义性能指标,例如响应长度或生产中的常见问题。 通过低摩擦方法收集用户反馈,例如向上/向下或简短消息收集用户反馈。 生产中LLMS的常见问题包括UI问题,延迟,错误答案,漫长的答案和迅速的注射攻击。 使用用户反馈通过查找和解决主题或问题来改善提示。

3 参考文献

生成式AI时代的AI Infra—从DevOps->MLOps->LLMOps

© 版权声明
THE END
喜欢就支持一下吧
点赞0 分享