論文へのリンク
[1909.09148] Data Augmentation Revisited: Rethinking the Distribution Gap between Clean and Augmented Data
筆者・所属機関
Zhuoxun He 1 Lingxi Xie 2 Xin Chen 3 Ya Zhang 1 Yanfeng Wang 1 Qi Tian 2
1 Shanghai Jiao Tong University 2Huawei Noahs Ark Labc 3Tongji University
投稿日付
2019/09/11
概要(一言まとめ)
Data Augmentationを最後の数epochs、減らして(無しで)学習させることで性能があがる
手法の概要
Data Augmentation正則化としてとらえて、汎化誤差と経験損失の観点で性能向上の理由を説明?
コメント
Data Augmentationを正則化として捉え、汎化性能を向上させる反面、経験損失が増加するリスクがあると考察。
— goto yuta (@goto_yuta_) January 20, 2021
最初に大量にData AugmentationしてData Augmentationを減らして学習することで、汎化誤差と経験損失のバランスが取れ、精度が向上。
現実にもよく使われる印象。https://t.co/6wRMsPxu5V
関連情報
次に読む論文
自分なりのアウトプット
気になった英単語・英語表現
- empirical 経験的