LEEP: A new measure to evaluate transferability of learned representations

Cuong V. Nguyen, Tal Hassner, Matthias Seeger, Cedric Archambeau

פרסום מחקרי: פרק בספר / בדוח / בכנספרסום בספר כנסביקורת עמיתים

תקציר

We introduce a new measure to evaluate the transferability of representations learned by classifiers. Our measure, the Log Expected Empirical Prediction (LEEP), is simple and easy to compute: when given a classifier trained on a source data set, it only requires running the target data set through this classifier once. We analyze the properties of LEEP theoretically and demonstrate its effectiveness empirically. Our analysis shows that LEEP can predict the performance and convergence speed of both transfer and meta-transfer learning methods, even for small or imbalanced data. Moreover, LEEP outperforms recently proposed transferability measures such as negative conditional entropy and H scores. Notably, when transferring from ImageNet to CIFAR100, LEEP can achieve up to 30% improvement compared to the best competing method in terms of the correlations with actual transfer accuracy.

שפה מקוריתאנגלית
כותר פרסום המארח37th International Conference on Machine Learning, ICML 2020
עורכיםHal Daume, Aarti Singh
מוציא לאורInternational Machine Learning Society (IMLS)
עמודים7250-7261
מספר עמודים12
מסת"ב (אלקטרוני)9781713821120
סטטוס פרסוםפורסם - 2020
פורסם באופן חיצוניכן
אירוע37th International Conference on Machine Learning, ICML 2020 - Virtual, Online
משך הזמן: 13 יולי 202018 יולי 2020

סדרות פרסומים

שם37th International Conference on Machine Learning, ICML 2020
כרךPartF168147-10

כנס

כנס37th International Conference on Machine Learning, ICML 2020
עירVirtual, Online
תקופה13/07/2018/07/20

הערה ביבליוגרפית

Publisher Copyright:
© 2020 37th International Conference on Machine Learning, ICML 2020. All rights reserved.

טביעת אצבע

להלן מוצגים תחומי המחקר של הפרסום 'LEEP: A new measure to evaluate transferability of learned representations'. יחד הם יוצרים טביעת אצבע ייחודית.

פורמט ציטוט ביבליוגרפי