ファインチューニング

ファインチューニング (AI) とは

機械学習のファインチューニングとは、学習済みモデルのパラメーターを特定のタスクやデータセットに合わせて変更することを指します。ターゲットタスクに関連するデータを使ってモデルを訓練し直すと同時に、前回の学習成果も調整します。

オフィスで微笑んでいるビジネスマン
  • ファインチューニングの仕組み
  • ファインチューニングのプロセス
  • HPEとファインチューニング
ファインチューニングの仕組み

ファインチューニングの仕組み

ファインチューニングは転移学習と似ており、専門知識を利用することで関連ジョブにおけるモデルの成果を向上させます。学習済みモデルをファインチューニングすることで、ゼロから始めるよりも少ないコンピューティングリソースや訓練時間でより良い成果を実現できます。自然言語処理やコンピュータービジョンに使用して新たなタスクやデータセットにモデルを適応させるファインチューニングは、現代の機械学習ワークフローには欠かせません。

ファインチューニングとRAGの違い

特徴

ファインチューニング

RAG (検索拡張生成)

1. 手法

学習済みモデルのパラメーターを、特定のタスクやデータセットに合わせて調整します。

検索メカニズムを用いて生成タスクを増補し、検索モデルと生成モデルを組み合わせます。

2. トレーニングデータ

ファインチューニング用にタスク別の訓練データが必要です。

検索コンポーネントと生成コンポーネントの両方に大規模なテキストコーパスを使用します。

3. 適応性

幅広いタスクやドメインへの適応性があります。

主に、コンテキスト情報検索による生成に関連したタスクに適しています。

4. 性能

タスク別ファインチューニングで高性能を実現できます。

検索する情報の質と関連度に性能が大きく左右されます。

5. ユースケース

NLPやコンピュータービジョンなど、さまざまなドメインで幅広く利用できます。

コンテキスト情報が必要な質問応答、対話システム、コンテンツ生成などのタスクに特に役立ちます。

HPE Machine Learning Development Environmentソフトウェア

AI/機械学習ジャーニーのあらゆる段階でAIワークロードとAIアプリケーションの価値実現時間を短縮できます。

詳細はこちら

関連トピック

機械学習

詳細はこちら

機械学習モデル

詳細はこちら

AIモデル

詳細はこちら