定義: パイプラインとは、事前学習済みの機械学習モデルを特定のタスクまたはデータセットに適合させるために使用される構造化された一連のステップを指します。このパイプラインは、データの準備、モデルの構成、学習、評価、および微調整されたモデルの保存に関連するステージを自動化および整理します。
データサンプル : GitHub (link) にアクセスして、使用するサンプルデータを取得
モデル微調整サービスにアクセスし、「パイプライン管理」を選択し、「パイプライン作成」をクリックします。
ベースモデル | 説明 |
---|---|
Llama-3.1-8B | 基本言語モデル、80億パラメータ、汎用性、微調整に最適 |
Llama-3.2-1B | 軽量ベースモデル、10億パラメータ、高速、効率的、エッジ使用に最適 |
Llama-3.2-8B-Instruct | インストラクショナルチューニングモデル、80億パラメータ、対話とタスクに最適化 |
Llama-3.2-11B-Vision-Instruct | ビジョン言語タスクに最適化されたマルチモーダル命令調整モデル、110億 パラメーター |
Llama-3.3-70B-Instruct | インストラクションチューニングされたLLaMAモデル、700億パラメータ、複雑なタスクに優れています |
Meta-Llama-3-8B-Instruct | インストラクショナルチューニングされたLLaMAモデル、80億パラメータ、会話型タスクに最適化 |
Qwen2-0.5B-Instruct | 小型の命令調整モデル、5億パラメータ、軽量でタスク効率が良い |
Qwen2-VL-7B-Instruct | マルチモーダルインストラクションチューニングモデル、70億パラメーター、効率的な視覚言語理解 |
Qwen2-VL-72B | マルチモーダル基本モデル、720億パラメータ、視覚と言語の両方を処理 |
Qwen2-VL-72B-Instruct | マルチモーダルインストラクションチューニングモデル、720億パラメータ、視覚言語の理解と生成 |
Qwen2.5-0.5B-Instruct | インストラクチャリング調整モデルの更新、5億パラメータ、効率の向上、タスク処理 |
Qwen2.5-14B-Instruct | インストラクショナルチューニング言語モデル、140億パラメータ、バランスの取れた電力と効率 |
Qwen2.5-32B-Instruct | インストラクショナルチューニング言語モデル、320億パラメータ、タスクの理解に強い |
Qwen2.5-VL-72B-Instruct | マルチモーダル命令調整モデル、720億パラメータ、ビジョン言語タスクに優れています |
Mixtral-8x7B-v0.1 | スパース混合専門家モデル、8エキスパート、高効率、強力なパフォーマンス |
Mixtral-8x22B-v0.1 | 大規模な混合専門家モデル、8×22B エキスパート、スケーラブル、効率的、強力な推論 |
Mixtral-8x22B-Instruct-v0.1 | インストラクションチューニングされた混合専門家モデル、8×22Bのエキスパートは、次のタスクに優れています |
DeepSeek-R1 | DeepSeekによる基盤言語モデル、汎用性、強力、オープンソース |
DeepSeek-R1-Distill-Llama-70B | LlaMA700億から抽出された効率的な言語モデル、最適化されたパフォーマンス |
DeepSeek-R1-V3-0324 | 高度な多言語モデル、最新のDeepSeekバージョン、多様なタスクに最適化 |
注:独自モデルをアップロードする場合は、お問い合わせください!
データ形式 | 説明 | データ構造 | ファイル形式 |
---|---|---|---|
Alpaca | 監視された微調整タスクのための入力とアウトプットのペアを持つ命令追従形式 | {instruction, input, output} | json、zip 圧縮 |
Corpus | モデルの学習と評価に使用される大規模な構造化テキストコレクション | {text} | json、zip 圧縮 |
ShareGPT | ShareGPTデータセットでトレーニングされ、会話の応答を改善 | multi-turn chats / {conversations [from, value]} | json、zip 圧縮 |
ShareGPT_Image | マルチモーダル(テキストおよび画像)処理に最適化 | multi-turn chats / {conversations [from, value]} + image_path | zip:train.jsonとフォルダの画像 |
データ形式の詳細については、こちらをご覧ください https://fptcloud.com/en/documents/model-fine-tuning/?doc=select-data-formathttps://fptcloud.com/en/documents/model-fine-tuning/?doc=select-data-format
接続を選択する前に、データハブにアクセスし、データソースを選択し、バケットのエンドポイントURLを入力し、アクセスキーとシークレット キーを指定して接続を作成する必要があります。 接続作成ガイドは、こちらで参照できます https://fptcloud.com/en/documents/data-hub/?doc=create-connection
トレーナー | 説明 | サポートのデータ形式 |
---|---|---|
事前学習 | 言語理解のためのラベル付けされていない大きなデータを使用した初期トレーニング フェーズ | Corpus |
SFT | 監視された微調整トレーナー、ラベル付きデータを使用してモデルの動作を調整 | Alpaca/ShareGPT/ |
ShareGPT_Image | ||
DPO | 直接的な嗜好最適化トレーナーは、モデルを人間の嗜好信号と直接調整します | シェアGPT/ShareGPT_Image |
パラメーター | 説明 | 種類 | 対応値 | 既定値 |
---|---|---|---|---|
learning_rate | トレーニングの学習率 | float | [0.00001-0.001] | 0.00001 |
batch_size | トレーニングのバッチ サイズ。分散トレーニングの場合、これは各デバイスのバッチサイズです | int | 更新 | 1 |
epochs | トレーニングエポックの数 | Int | 更新 | 1 |
gradient_accumulation_steps | 逆方向/更新パスを実行する前に、勾配を蓄積する更新ステップの数 | int | 更新 | 4 |
checkpoint_steps | 2 つのチェックポイントが保存される前のトレーニング ステップの数 save_strategy="steps"の場合 | int | 更新 | 1000 |
max_sequence_length | 最大入力長、より長いシーケンスはこの値にカットオフされます | int | 更新 | 2048 |
finetuning_type | 使用するパラメータモード | enum[string] | lora/full | lora |
distributed_backend | 分散トレーニングに使用するバックエンド。デフォルトは ddp | enum[string] | ddp/deepseed | ddp |
deepspeed_zero_stage | DeepSpeed ZeROアルゴリズムを適用するステージdistributed_backend=deepspeedの場合にのみ適用 | enum[int] | 1/2/3 | 1 |
ハイパーパラメータの詳細については、こちらをご覧ください https://fptcloud.com/en/documents/model-fine-tuning/?doc=set-hyperparameters
トリガー | 説明 |
---|---|
手動 | ユーザーが開始する微調整。 |
スケジュール | 設定されたスケジュールに基づく自動微調整。 |
ft_[基本モデル]_[タイムスタンプ]
ft_[基本モデル]_[タイムスタンプ]_template
パイプラインは、「開始」をクリックして手動で開始するか、スケジュールに従って実行するように設定できます。