3. Konfigurasi Training

3 Epochs

Jumlah optimal untuk fine-tuning guna mencegah overfitting pada data latih.

Batch Size 32

Dipilih untuk memaksimalkan penggunaan VRAM GPU T4 di Google Colab.

LR 2e-5

Learning rate sangat kecil (0.00002) agar bobot pre-trained tidak rusak.