PyTorch事前学習済みモデル(転移学習)完全ガイド – 初心者でもできる高精度AI開発
![]() | 20万件以上の案件から、副業に最適なリモート・週3〜の案件を一括検索できるプラットフォーム。プロフィール登録でAIスカウトが自動的にマッチング案件を提案。市場統計や単価相場、エージェントの口コミも無料で閲覧可能なため、本業を続けながら効率的に高単価の副業案件を探せます。フリーランスボード |
| | 週2〜3日から働ける柔軟な案件が業界トップクラスの豊富さを誇るフリーランスエージェント。エンド直契約のため高単価で、週3日稼働でも十分な報酬を得られます。リモートや時間フレキシブルな案件も多数。スタートアップ・ベンチャー中心で、トレンド技術を使った魅力的な案件が揃っています。専属エージェントが案件紹介から契約交渉までサポート。利用企業2,000社以上の実績。ITプロパートナーズ |
| | 10,000件以上の案件を保有し、週3日〜・フルリモートなど柔軟な働き方に対応。高単価案件が豊富で、報酬保障制度(60%)や保険料負担(50%)など正社員並みの手厚い福利厚生が特徴。通勤交通費(月3万円)、スキルアップ費用(月1万円)の支給に加え、リロクラブ・freeeが無料利用可能。非公開案件80%以上、支払いサイト20日で安心して稼働できます。Midworks |
目次
事前学習済みモデルと転移学習とは?
事前学習済みモデル(Pre-trained Models)は、大規模データセットで既に学習済みのニューラルネットワークです。転移学習(Transfer Learning)は、この事前学習済みモデルを新しいタスクに適用する手法で、少ないデータと計算コストで高精度なAIモデルを構築できます。
転移学習のメリット
- 学習時間の短縮:ゼロから学習する必要がない
- 少ないデータで高精度:数百枚の画像でも実用的な精度
- 計算コストの削減:GPU使用時間とコストを大幅削減
- 実用的な性能:最先端モデルの恩恵を即座に活用
PyTorchでの基本的な転移学習
1. torchvisionを使った画像分類
import torch
import torch.nn as nn
import torchvision.models as models
# 事前学習済みモデルの読み込み
model = models.resnet50(pretrained=True)
# 分類層の変更(10クラス分類の場合)
num_classes = 10
model.fc = nn.Linear(model.fc.in_features, num_classes)
# 特徴抽出レイヤーを凍結
for param in model.parameters():
param.requires_grad = False
model.fc.requires_grad = True # 最終層のみ学習
# オプティマイザーの設定
optimizer = torch.optim.Adam(model.fc.parameters(), lr=0.001)
2. ファインチューニングの実装
def setup_transfer_learning(model, num_classes, feature_extract=True):
if feature_extract:
# 特徴抽出モード:最終層のみ学習
for param in model.parameters():
param.requires_grad = False
# 最終層の置き換え
if hasattr(model, 'fc'): # ResNet系
model.fc = nn.Linear(model.fc.in_features, num_classes)
elif hasattr(model, 'classifier'): # VGG, AlexNet系
model.classifier[-1] = nn.Linear(model.classifier[-1].in_features, num_classes)
return model
# 使用例
model = models.resnet18(pretrained=True)
model = setup_transfer_learning(model, num_classes=5)
3. 段階的ファインチューニング
class TransferLearningTrainer:
def __init__(self, model, device='cuda'):
self.model = model.to(device)
self.device = device
def freeze_backbone(self):
for name, param in self.model.named_parameters():
if 'fc' not in name and 'classifier' not in name:
param.requires_grad = False
def unfreeze_all(self):
for param in self.model.parameters():
param.requires_grad = True
def train_classifier_only(self, dataloader, epochs=5):
self.freeze_backbone()
optimizer = torch.optim.Adam(filter(lambda p: p.requires_grad, self.model.parameters()))
self._train(dataloader, optimizer, epochs)
def fine_tune_all(self, dataloader, epochs=10, lr=1e-5):
self.unfreeze_all()
optimizer = torch.optim.Adam(self.model.parameters(), lr=lr)
self._train(dataloader, optimizer, epochs)
自然言語処理での転移学習
1. Hugging Face Transformersを使用
from transformers import AutoTokenizer, AutoModelForSequenceClassification
from transformers import Trainer, TrainingArguments
# 事前学習済みモデルの読み込み
model_name = "cl-tohoku/bert-base-japanese-whole-word-masking"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(
model_name, num_labels=3 # 3クラス分類
)
# データの前処理
def tokenize_function(examples):
return tokenizer(examples["text"], truncation=True, padding=True)
tokenized_datasets = dataset.map(tokenize_function, batched=True)
# ファインチューニング
training_args = TrainingArguments(
output_dir="./results",
num_train_epochs=3,
per_device_train_batch_size=16,
learning_rate=2e-5
)
trainer = Trainer(
model=model,
args=training_args,
train_dataset=tokenized_datasets["train"],
eval_dataset=tokenized_datasets["test"]
)
trainer.train()
2. カスタムテキスト分類器
import torch.nn as nn
from transformers import AutoModel
class CustomBertClassifier(nn.Module):
def __init__(self, model_name, num_classes, dropout=0.3):
super().__init__()
self.bert = AutoModel.from_pretrained(model_name)
self.dropout = nn.Dropout(dropout)
self.classifier = nn.Linear(self.bert.config.hidden_size, num_classes)
def forward(self, input_ids, attention_mask):
outputs = self.bert(input_ids=input_ids, attention_mask=attention_mask)
pooled_output = outputs.pooler_output
output = self.dropout(pooled_output)
return self.classifier(output)
# 使用例
model = CustomBertClassifier("cl-tohoku/bert-base-japanese", num_classes=3)
# BERTの重みを凍結
for param in model.bert.parameters():
param.requires_grad = False
実践的な転移学習パイプライン
1. データローダーの準備
from torch.utils.data import DataLoader, Dataset
from torchvision import transforms
from PIL import Image
class CustomImageDataset(Dataset):
def __init__(self, image_paths, labels, transform=None):
self.image_paths = image_paths
self.labels = labels
self.transform = transform
def __len__(self):
return len(self.image_paths)
def __getitem__(self, idx):
image = Image.open(self.image_paths[idx]).convert('RGB')
if self.transform:
image = self.transform(image)
return image, self.labels[idx]
# データ拡張とノーマライゼーション
train_transform = transforms.Compose([
transforms.Resize(256),
transforms.CenterCrop(224),
transforms.RandomHorizontalFlip(),
transforms.ToTensor(),
transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
])
dataset = CustomImageDataset(image_paths, labels, train_transform)
dataloader = DataLoader(dataset, batch_size=32, shuffle=True)
2. 学習ループの実装
def train_model(model, dataloader, num_epochs=10, device='cuda'):
model = model.to(device)
criterion = nn.CrossEntropyLoss()
optimizer = torch.optim.Adam(model.parameters(), lr=0.001)
scheduler = torch.optim.lr_scheduler.StepLR(optimizer, step_size=7, gamma=0.1)
for epoch in range(num_epochs):
model.train()
running_loss = 0.0
running_corrects = 0
for inputs, labels in dataloader:
inputs, labels = inputs.to(device), labels.to(device)
optimizer.zero_grad()
outputs = model(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
_, preds = torch.max(outputs, 1)
running_loss += loss.item() * inputs.size(0)
running_corrects += torch.sum(preds == labels.data)
scheduler.step()
epoch_loss = running_loss / len(dataloader.dataset)
epoch_acc = running_corrects.double() / len(dataloader.dataset)
print(f'Epoch {epoch+1}/{num_epochs} Loss: {epoch_loss:.4f} Acc: {epoch_acc:.4f}')
3. モデル評価と可視化
import matplotlib.pyplot as plt
from sklearn.metrics import classification_report, confusion_matrix
import seaborn as sns
def evaluate_model(model, dataloader, device='cuda'):
model.eval()
y_true, y_pred = [], []
with torch.no_grad():
for inputs, labels in dataloader:
inputs, labels = inputs.to(device), labels.to(device)
outputs = model(inputs)
_, preds = torch.max(outputs, 1)
y_true.extend(labels.cpu().numpy())
y_pred.extend(preds.cpu().numpy())
# 分類レポート
print(classification_report(y_true, y_pred))
# 混同行列の可視化
cm = confusion_matrix(y_true, y_pred)
plt.figure(figsize=(8, 6))
sns.heatmap(cm, annot=True, fmt='d', cmap='Blues')
plt.ylabel('True Label')
plt.xlabel('Predicted Label')
plt.show()
return y_true, y_pred
高度な転移学習テクニック
1. 層別学習率の設定
def get_layered_optimizer(model, base_lr=1e-5):
"""層ごとに異なる学習率を設定"""
param_groups = []
# バックボーンの層
for name, param in model.named_parameters():
if 'fc' in name or 'classifier' in name:
param_groups.append({'params': param, 'lr': base_lr * 10}) # 最終層は高い学習率
elif 'layer4' in name or 'layer3' in name:
param_groups.append({'params': param, 'lr': base_lr * 2}) # 後半層は中程度
else:
param_groups.append({'params': param, 'lr': base_lr}) # 前半層は低い学習率
return torch.optim.Adam(param_groups)
optimizer = get_layered_optimizer(model)
2. 知識蒸留(Knowledge Distillation)
class KnowledgeDistillationLoss(nn.Module):
def __init__(self, alpha=0.7, temperature=4):
super().__init__()
self.alpha = alpha
self.temperature = temperature
self.kl_div = nn.KLDivLoss(reduction='batchmean')
self.ce_loss = nn.CrossEntropyLoss()
def forward(self, student_outputs, teacher_outputs, labels):
# 教師モデルからの知識
teacher_probs = torch.softmax(teacher_outputs / self.temperature, dim=1)
student_log_probs = torch.log_softmax(student_outputs / self.temperature, dim=1)
distillation_loss = self.kl_div(student_log_probs, teacher_probs)
# 正解ラベルからの学習
classification_loss = self.ce_loss(student_outputs, labels)
return self.alpha * distillation_loss + (1 - self.alpha) * classification_loss
3. ドメイン適応
class DomainAdaptationModel(nn.Module):
def __init__(self, backbone, num_classes):
super().__init__()
self.backbone = backbone
self.classifier = nn.Linear(backbone.fc.in_features, num_classes)
self.domain_classifier = nn.Sequential(
nn.Linear(backbone.fc.in_features, 256),
nn.ReLU(),
nn.Linear(256, 2) # ソース/ターゲットドメイン
)
# バックボーンの最終層を削除
self.backbone.fc = nn.Identity()
def forward(self, x, alpha=1.0):
features = self.backbone(x)
# 勾配反転レイヤー(簡易実装)
reversed_features = features * alpha
class_output = self.classifier(features)
domain_output = self.domain_classifier(reversed_features)
return class_output, domain_output
専門分野での転移学習
1. 医用画像解析
import timm
# 医用画像に適した事前学習済みモデル
model = timm.create_model('efficientnet_b3', pretrained=True)
model.classifier = nn.Linear(model.classifier.in_features, 3) # 良性/悪性/正常
# 医用画像用のデータ拡張
medical_transforms = transforms.Compose([
transforms.Resize(256),
transforms.CenterCrop(224),
transforms.RandomRotation(15),
transforms.ColorJitter(brightness=0.1, contrast=0.1),
transforms.ToTensor(),
transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
])
# クラス不均衡に対応した重み付き損失
class_weights = torch.tensor([0.3, 2.0, 1.0]) # 悪性クラスの重みを大きく
criterion = nn.CrossEntropyLoss(weight=class_weights)
2. 音声認識・音響分析
import torchaudio
from transformers import Wav2Vec2ForCTC, Wav2Vec2Processor
# 音声認識用事前学習済みモデル
processor = Wav2Vec2Processor.from_pretrained("facebook/wav2vec2-base-960h")
model = Wav2Vec2ForCTC.from_pretrained("facebook/wav2vec2-base-960h")
# 音声ファイルの前処理
def preprocess_audio(audio_path):
waveform, sample_rate = torchaudio.load(audio_path)
# リサンプリング
if sample_rate != 16000:
resampler = torchaudio.transforms.Resample(sample_rate, 16000)
waveform = resampler(waveform)
# 特徴量抽出
inputs = processor(waveform.squeeze(), sampling_rate=16000, return_tensors="pt")
return inputs
# 推論実行
def transcribe_audio(audio_path):
inputs = preprocess_audio(audio_path)
with torch.no_grad():
logits = model(**inputs).logits
predicted_ids = torch.argmax(logits, dim=-1)
transcription = processor.decode(predicted_ids[0])
return transcription
3. マルチモーダル学習(CLIP)
import clip
class CLIPFineTuner(nn.Module):
def __init__(self, num_classes):
super().__init__()
self.clip_model, self.preprocess = clip.load("ViT-B/32", device="cuda")
self.classifier = nn.Linear(512, num_classes)
# CLIPの重みを凍結
for param in self.clip_model.parameters():
param.requires_grad = False
def forward(self, images, texts=None):
with torch.no_grad():
image_features = self.clip_model.encode_image(images)
return self.classifier(image_features.float())
# 使用例
model = CLIPFineTuner(num_classes=10)
optimizer = torch.optim.Adam(model.classifier.parameters(), lr=0.001)
パフォーマンス最適化
1. 効率的なデータローディング
from torch.utils.data import DataLoader
import torch.multiprocessing as mp
# 高速データローディング設定
def get_optimized_dataloader(dataset, batch_size=32):
return DataLoader(
dataset,
batch_size=batch_size,
shuffle=True,
num_workers=mp.cpu_count(),
pin_memory=True,
persistent_workers=True
)
# メモリ効率的なデータセット
class EfficientImageDataset(Dataset):
def __init__(self, image_paths, labels, transform=None):
self.image_paths = image_paths
self.labels = labels
self.transform = transform
def __getitem__(self, idx):
# 必要な時にのみ画像を読み込み
image = Image.open(self.image_paths[idx]).convert('RGB')
if self.transform:
image = self.transform(image)
return image, self.labels[idx]
2. 混合精度学習
from torch.cuda.amp import autocast, GradScaler
def train_with_mixed_precision(model, dataloader, num_epochs=10):
scaler = GradScaler()
optimizer = torch.optim.Adam(model.parameters(), lr=0.001)
criterion = nn.CrossEntropyLoss()
for epoch in range(num_epochs):
for inputs, labels in dataloader:
optimizer.zero_grad()
# 混合精度での順伝播
with autocast():
outputs = model(inputs)
loss = criterion(outputs, labels)
# スケールした勾配での逆伝播
scaler.scale(loss).backward()
scaler.step(optimizer)
scaler.update()
実用的なTips
1. モデルの保存と読み込み
# モデル全体の保存
torch.save(model, 'complete_model.pth')
# 重みのみの保存(推奨)
torch.save(model.state_dict(), 'model_weights.pth')
# 学習状態も含めた保存
checkpoint = {
'model_state_dict': model.state_dict(),
'optimizer_state_dict': optimizer.state_dict(),
'epoch': epoch,
'loss': loss
}
torch.save(checkpoint, 'checkpoint.pth')
# 読み込み
model = models.resnet50(pretrained=False)
model.load_state_dict(torch.load('model_weights.pth'))
model.eval()
2. 早期終了とモデル選択
class EarlyStopping:
def __init__(self, patience=7, min_delta=0.001):
self.patience = patience
self.min_delta = min_delta
self.counter = 0
self.best_loss = float('inf')
def __call__(self, val_loss):
if val_loss < self.best_loss - self.min_delta:
self.best_loss = val_loss
self.counter = 0
else:
self.counter += 1
return self.counter >= self.patience
# 使用例
early_stopping = EarlyStopping(patience=10)
for epoch in range(100):
train_loss = train_epoch(model, train_loader)
val_loss = validate_epoch(model, val_loader)
if early_stopping(val_loss):
print(f"Early stopping at epoch {epoch}")
break
学習ロードマップ
初級レベル(2-3週間)
- 基本概念理解:転移学習の原理と利点
- torchvision活用:ResNet、VGGでの画像分類
- Hugging Face基礎:BERTでのテキスト分類
- 実践課題:花の種類分類、映画レビュー分析
中級レベル(1-2ヶ月)
- 高度なファインチューニング:層別学習率、段階的学習
- カスタムデータセット:独自データでの転移学習
- モデル評価:性能指標、可視化手法
- 実践課題:医用画像診断、音声認識
上級レベル(3-6ヶ月)
- 高度な手法:知識蒸留、ドメイン適応
- マルチモーダル学習:CLIP、マルチタスク学習
- 最適化技法:混合精度、効率的なデータローディング
- 本番運用:モデルサービング、継続学習
実践プロジェクト例
- 初級:犬猫分類器、スパム検出システム
- 中級:X線画像診断、多言語感情分析
- 上級:リアルタイム物体検出、大規模画像検索システム
まとめ
PyTorchでの事前学習済みモデル活用と転移学習は、効率的で高精度なAIシステム構築の鍵となる技術です。適切な手法を選択し、段階的にスキルを積み上げることで、実用的なAIアプリケーションを短期間で開発できるようになります。
重要なのは、問題の性質に応じて適切な事前学習済みモデルと転移学習戦略を選択することです。継続的な実践と最新動向のキャッチアップを通じて、実践的なAI開発スキルを磨いていきましょう。
■らくらくPython塾 – 読むだけでマスター
■プロンプトだけでオリジナルアプリを開発・公開してみた!!
■AI時代の第一歩!「AI駆動開発コース」はじめました!
テックジム東京本校で先行開始。
■テックジム東京本校
「武田塾」のプログラミング版といえば「テックジム」。
講義動画なし、教科書なし。「進捗管理とコーチング」で効率学習。
より早く、より安く、しかも対面型のプログラミングスクールです。
<短期講習>5日で5万円の「Pythonミニキャンプ」開催中。
<月1開催>放送作家による映像ディレクター養成講座
<オンライン無料>ゼロから始めるPython爆速講座
![]() | 20万件以上の案件から、副業に最適なリモート・週3〜の案件を一括検索できるプラットフォーム。プロフィール登録でAIスカウトが自動的にマッチング案件を提案。市場統計や単価相場、エージェントの口コミも無料で閲覧可能なため、本業を続けながら効率的に高単価の副業案件を探せます。フリーランスボード |
| | 週2〜3日から働ける柔軟な案件が業界トップクラスの豊富さを誇るフリーランスエージェント。エンド直契約のため高単価で、週3日稼働でも十分な報酬を得られます。リモートや時間フレキシブルな案件も多数。スタートアップ・ベンチャー中心で、トレンド技術を使った魅力的な案件が揃っています。専属エージェントが案件紹介から契約交渉までサポート。利用企業2,000社以上の実績。ITプロパートナーズ |
| | 10,000件以上の案件を保有し、週3日〜・フルリモートなど柔軟な働き方に対応。高単価案件が豊富で、報酬保障制度(60%)や保険料負担(50%)など正社員並みの手厚い福利厚生が特徴。通勤交通費(月3万円)、スキルアップ費用(月1万円)の支給に加え、リロクラブ・freeeが無料利用可能。非公開案件80%以上、支払いサイト20日で安心して稼働できます。Midworks |



