全ての資料
Model Fine-tuningサービスにアクセスし、「パイプライン管理」を選択し、「パイプライン作成」ボタンをクリックします。
ベースモデル | 説明 |
---|---|
Llama-3.1-8B | NLPタスク用に最適化された80億のパラメータを備えたLlama-3.1 |
Llama-3.2-1B | コンパクトな1Bパラメータバージョンで、リソースが限られている高性能アプリケーションに最適 |
Llama-3.2-1B-Instruct | 指示ベースのインタラクション用に微調整されている |
Llama-3.2-3B | 3Bパラメータを持つバランスの取れたモデル |
Llama-3.2-3B-Instruct | 特定のイントラクションタスク用に微調整されたバージョン |
Llama-3.2-8B-Instruct | ガイド付き応答用のインストラクション調整された 8B モデル |
Llama-3.2-11B-Vision | テキスト画像タスク用のビジョン対応モデル |
Llama-3.2-11B-Vision-Instruct | 指示ベースの微調整されたビジョンモデル |
Meta-Llama-3.1-8B-Instruct | Meta-Llama-3.1の8Bインストラクションチューニングバージョン |
Qwen2-0.5B | 組み込みAI用の0.5Bコンパクトモデル |
Qwen2-1.5B | 1.5Bバージョン、効率と拡張性のバランス |
Qwen2-VL-7B | 7B パラメーターを持つビジョン言語モデル |
Qwen2.5-14B-Instruct | 複雑なAIタスクのための高度な14Bインストラクションチューニングバージョン |
Llama-3.1-70B | 複雑なNLPタスク、研究、自動化のための高度な70Bインストラクションチューニングバージョン |
Llama-3.3-70B-Instruct | 高度なAIアシスタント、推論、自動化のための高度な 70Bインストラクションチューニングバージョン |
Qwen2.5-32B | 効率的なNLP、コーディング、リサーチ、および内容生成のための32Bインストラクションチューニングバージョン |
注:自らのモデルをアップロードしたい場合は、お問い合わせください!
接続を選択する前に、データハブにアクセスし、データソースを選択し、バケットへのエンドポイントURLを入力し、アクセスキーとシークレットキーを指定して接続を作成する必要があります。
トレーナー | 説明 |
---|---|
データセットのフォーマット: {instruction, input, output} | |
SFT_LoRA_BF16_ShareGPT | ShareGPTデータセットでトレーニングされ、会話の応答が改善されました。 |
データセットのフォーマット:multi-turn chats / {conversations[from, value]} | |
SFT_LoRA_BF16_ShareGPT_Image | マルチモーダル(テキストおよび画像)処理に最適化されています。 |
データセットのフォーマット:マルチターンチャット / {会話[差出人, 値]} + image_path |
ハイパーパラメータ | 説明 |
---|---|
Epochs | データセットのトレーニングサイクルの数 |
Batch Size | ステップごとに処理されるサンプルの数 |
Learning Rate | モデルのウェイトの更新を制御します |
Sequence Length | 入力あたりの最大トークン長 |
Checkpoint Steps | チェックポイントを保存する頻度の定義 |
Gradient Accumulation Steps | ウェイト更新前にグラデーション更新の決定 |
Distributed backend | 分散トレーニングのバックエンド |
Zero Stage | ZeROオプティマイザーのステージ |
また、JSONファイルを使用した構成のための20を超えるハイパーパラメーターをサポートする詳細モードも提供しています。上記のパラメータに加えて、システムは以下のパラメータもサポートしています。
ハイパーパラメータ | 説明 |
---|---|
lr_scheduler_type | 使用する学習率スケジューラの種類 |
lr_warmup_steps | 学習率スケジューラのウォームアップフェーズの学習ステップ数 |
disable_gradient_checkpointing | グラデーションチェックポイントを無効にする |
eval_strategy | モデル評価戦略 |
eval_steps | モデル評価頻度 |
mixed_precision | 最適化された使用 |
optimizer | 使用する微調整の種類 |
lora_alpha | LoRAのスケーリング係数 |
lora_dropout | LoRAのドロップアウト率 |
lora_rank | LoRAのランク |
quantization_bit | 量子化のビット数 |
flash_attention_v2 | Flash Attention v2を使用しているかどうか |
logging_steps | ログする頻度 |
checkpoint_strategy | |
max_grad_norm | グラデーションの正規化 |
number_of_checkpoints | 保存されたチェックポイントの数 |
seed | ランダムのシード |
full_determinism | トレーニングプロセスの決定性を確保する |
weight_decay | パラメーターの大きさのスケーリング係数 |
target_modules | 微調整するモジュールの名前 |
トリガー | 形容 |
---|---|
手動 | ユーザーが開始する微調整。 |
予定 | 設定されたスケジュールに基づく自動微調整。 |
パイプライン名を入力
パイプラインの説明を入力(最大 200文字)
確定する前に設定を確認します。
テンプレートとして保存 (任意)
5.「終了」をクリックして 、パイプラインを作成します。
パイプラインは、「開始」ボタンをクリックして手動で開始するか、スケジュールに基づいて実行するように設定できます。
Cookie | 時間 | 説明する |
---|---|---|
cookielawinfo-checbox-analytics | ||
cookielawinfo-checbox-functional | ||
cookielawinfo-checbox-others | ||
cookielawinfo-checkbox-necessary | ||
cookielawinfo-checkbox-performance | ||
viewed_cookie_policy |