# FAQ

よくある質問

## **1. ファインチューニングにはどのモデルを選ぶべきですか？**

小型モデル（パラメータ数10億以下）→ テストや軽いワークロード向け

中型モデル（70億～130億）→ パフォーマンスとコストのバランスが取れている

大型モデル（300億以上）→ 複雑なタスク向け、通常はマルチノード環境が必要

タスクがプロンプト応答ベースの場合、指示文調整済みモデルが推奨されます

## 2. ファインチューニングにはどのくらい時間がかかりますか？

以下の要素に依存します：

モデルサイズ（小規模モデル：数時間、超大規模モデル：数日）

データセットサイズ

ハードウェア構成（ハイパーパラメータとインフラ）

通常、数時間から数日程度です。

## 3. モデルをファインチューニングする前に何を準備すべきですか？

以下のものが必要です：

ファインチューニング対象モデルの想定データセット構造を厳密に遵守すること。データサンプルの詳細はこちら：<https://fptcloud.com/en/documents/model-fine-tuning/?doc=select-dataset-format​>

クリーンで多様性があり、重複のないデータ。

ファインチューニングの明確な目的（例：テクニカルサポート、カスタマーサービス、コンテンツ作成など）。

## 4. モデルのファインチューニングに必要なGPU数は？

モデルサイズによります：

<1Bパラメータ：1 GPU（24 GB VRAM）で十分

7Bモデル：2-4 GPU（各40 GB VRAM）

13Bモデル：4～8 GPU推奨

30B+モデル：8 GPU以上とマルチノード構成が必要

## 5. 複数のノードが必要ですか、それとも1ノードだけで十分ですか？

中小規模モデル（13B以下）の場合、複数GPUを搭載した単一ノードで十分です。

大規模モデル（30B以上）の場合、メモリとパフォーマンス向上のためマルチノード構成が推奨されます。

## 6. 最小限のGPUメモリ要件は？

標準的な微調整にはGPUあたり最低24GBのVRAMが必要です

LoRA/QLoRA手法を使用しない場合、8-16GB VRAMのGPUで微調整可能です

## 7. トレーニングデータセットのサイズはハードウェア要件に影響しますか？

はい。大規模なデータセットほど、より多くのVRAM、RAM、ストレージが必要です。

データセット < 20GB --> マネージドボリュームを使用可能

データセット > 20GB --> 専用ネットワークボリュームが必要
