❓FAQ
よくある質問
1. ファインチューニングにはどのモデルを選ぶべきですか?
小型モデル(パラメータ数10億以下)→ テストや軽いワークロード向け
中型モデル(70億~130億)→ パフォーマンスとコストのバランスが取れている
大型モデル(300億以上)→ 複雑なタスク向け、通常はマルチノード環境が必要
タスクがプロンプト応答ベースの場合、指示文調整済みモデルが推奨されます
2. ファインチューニングにはどのくらい時間がかかりますか?
以下の要素に依存します:
モデルサイズ(小規模モデル:数時間、超大規模モデル:数日)
データセットサイズ
ハードウェア構成(ハイパーパラメータとインフラ)
通常、数時間から数日程度です。
3. モデルをファインチューニングする前に何を準備すべきですか?
以下のものが必要です:
ファインチューニング対象モデルの想定データセット構造を厳密に遵守すること。データサンプルの詳細はこちら:https://fptcloud.com/en/documents/model-fine-tuning/?doc=select-dataset-format
クリーンで多様性があり、重複のないデータ。
ファインチューニングの明確な目的(例:テクニカルサポート、カスタマーサービス、コンテンツ作成など)。
4. モデルのファインチューニングに必要なGPU数は?
モデルサイズによります:
<1Bパラメータ:1 GPU(24 GB VRAM)で十分
7Bモデル:2-4 GPU(各40 GB VRAM)
13Bモデル:4~8 GPU推奨
30B+モデル:8 GPU以上とマルチノード構成が必要
5. 複数のノードが必要ですか、それとも1ノードだけで十分ですか?
中小規模モデル(13B以下)の場合、複数GPUを搭載した単一ノードで十分です。
大規模モデル(30B以上)の場合、メモリとパフォーマンス向上のためマルチノード構成が推奨されます。
6. 最小限のGPUメモリ要件は?
標準的な微調整にはGPUあたり最低24GBのVRAMが必要です
LoRA/QLoRA手法を使用しない場合、8-16GB VRAMのGPUで微調整可能です
7. トレーニングデータセットのサイズはハードウェア要件に影響しますか?
はい。大規模なデータセットほど、より多くのVRAM、RAM、ストレージが必要です。
データセット < 20GB --> マネージドボリュームを使用可能
データセット > 20GB --> 専用ネットワークボリュームが必要
Last updated
