微调

什么是微调 (AI)?

在机器学习领域,微调指改变预先训练模型的参数,以满足特定任务或数据集的要求。该模型在保留其先前专业知识的同时,根据目标任务相关数据进行了再训练。

办公室内面带微笑的商务人士
  • 微调如何运作?
  • 微调的流程
  • 携手 HPE 进行微调
微调如何运作?

微调如何运作?

微调就像迁移学习,在此过程中模型利用其专业知识,更加出色地完成相关工作。与从头开始相比,微调预先训练的模型可以用更少的计算资源和训练时间获得更好的结果。微调对当代机器学习工作流程至关重要,因为自然语言处理和计算机视觉需要使用它来调整模型以适应新的任务或数据集。

微调的流程

微调流程

机器学习中的微调包括以下步骤:

  • 预训练模型:选择一个在大数据集上训练过并在相关任务或领域中表现良好的模型。此类模型包括自然语言处理(如 BERT、GPT)、计算机视觉(如 ResNet、VGG)和其他学科中的模型。
  • 确定目标任务:指定要为其微调模型的任务或数据集。此时需要考虑情绪分析、图片分类或命名实体识别。
  • 数据准备:收集和处理新的任务相关数据集。将数据划分为训练集、验证集和测试集,并相应准备好。
  • 微调模型:使用梯度下降方法,在新数据集上初始化/重新训练预先训练的模型。调整超参数和学习率以避免过度拟合或拟合不足。
  • 评估和验证:在验证集上跟踪微调后模型的性能以进行修改。性能微调可能需要进行多次训练和评估。
  • 测试和部署:在测试集上测试微调后的模型,以确定其泛化能力。最后,将微调后的推理模型应用到实际中。
  • 按照上述步骤进行微调后,可使预先训练的模型适应新的任务或数据集,提高模型跨众多机器学习应用的性能和适应性。
携手 HPE 进行微调

携手 HPE 进行微调

与 HPE 携手,您可以使用其机器学习数据架构 (MLDES) 平台、生成式 AI 服务以及面向生成式 AI 的企业计算解决方案进行微调。其中每一组件都能促进微调:

  • HPE MLDES:MLDES 负责管理和处理海量的机器学习数据集。它简化了 ML 模型微调操作的数据准备、模型训练和部署工作。MLDES 将数据源、版本控制和协作无缝集成起来,简化微调操作。
  • HPE AI Services — Gen AI:HPE 生成式 AI 解决方案为企业提供高精尖的分析和 AI 服务。这些服务包括自然语言处理、计算机视觉以及预测性分析工具和技术。组织可以利用生成式 AI 服务来获得经过预先训练的模型和框架,以便根据任务或数据集进行定制。

面向生成式 AI 的 HPE 企业计算:HPE 企业计算解决方案支持多种 AI 工作负载,包括微调。这些解决方案包括 HPC 基础设施、可扩展存储和 AI 优化云服务。HPE 提供的企业计算功能使企业能够扩展微调操作,满足不断变化的需求并优化 AI 模型性能。

微调与 RAG 对比

方面

微调

RAG(检索增强生成)

1. 方法

针对特定任务或数据集调整预先训练模型的参数。

结合检索和生成模型,利用检索机制来增强生成任务。

2. 训练数据

需要任务特定的训练数据以进行微调。

可将大规模文本语料库用于检索和生成组件。

3. 适应能力

更好地适应多种任务和领域。

主要适用于涉及使用上下文信息检索进行生成的任务。

4. 性能

可以借助特定于任务的微调获得高性能。

性能在很大程度上取决于检索到的信息的质量和相关性。

5. 用例

广泛用于 NLP、计算机视觉等各个领域。

特别适用于需要上下文信息的问答、对话系统和内容生成等任务。

HPE Machine Learning Development Environment Software

在 AI/ML 旅程的任意阶段,加速实现 AI 工作负载和应用的价值。

相关主题