FAQ

よくある質問

1. ファインチューニングにはどのモデルを選ぶべきですか?

小型モデル(パラメータ数10億以下)→ テストや軽いワークロード向け

中型モデル(70億~130億)→ パフォーマンスとコストのバランスが取れている

大型モデル(300億以上)→ 複雑なタスク向け、通常はマルチノード環境が必要

タスクがプロンプト応答ベースの場合、指示文調整済みモデルが推奨されます

2. ファインチューニングにはどのくらい時間がかかりますか?

以下の要素に依存します:

モデルサイズ(小規模モデル:数時間、超大規模モデル:数日)

データセットサイズ

ハードウェア構成(ハイパーパラメータとインフラ)

通常、数時間から数日程度です。

3. モデルをファインチューニングする前に何を準備すべきですか?

以下のものが必要です:

ファインチューニング対象モデルの想定データセット構造を厳密に遵守すること。データサンプルの詳細はこちら:https://fptcloud.com/en/documents/model-fine-tuning/?doc=select-dataset-format​

クリーンで多様性があり、重複のないデータ。

ファインチューニングの明確な目的(例:テクニカルサポート、カスタマーサービス、コンテンツ作成など)。

4. モデルのファインチューニングに必要なGPU数は?

モデルサイズによります:

<1Bパラメータ:1 GPU(24 GB VRAM)で十分

7Bモデル:2-4 GPU(各40 GB VRAM)

13Bモデル:4~8 GPU推奨

30B+モデル:8 GPU以上とマルチノード構成が必要

5. 複数のノードが必要ですか、それとも1ノードだけで十分ですか?

中小規模モデル(13B以下)の場合、複数GPUを搭載した単一ノードで十分です。

大規模モデル(30B以上)の場合、メモリとパフォーマンス向上のためマルチノード構成が推奨されます。

6. 最小限のGPUメモリ要件は?

標準的な微調整にはGPUあたり最低24GBのVRAMが必要です

LoRA/QLoRA手法を使用しない場合、8-16GB VRAMのGPUで微調整可能です

7. トレーニングデータセットのサイズはハードウェア要件に影響しますか?

はい。大規模なデータセットほど、より多くのVRAM、RAM、ストレージが必要です。

データセット < 20GB --> マネージドボリュームを使用可能

データセット > 20GB --> 専用ネットワークボリュームが必要

Last updated