דילוג לניווט ראשי דילוג לחיפוש דילוג לתוכן הראשי

Evaluating models’ local decision boundaries via contrast sets

  • Matt Gardner
  • , Yoav Artzi
  • , Victoria Basmova
  • , Jonathan Berant
  • , Ben Bogin
  • , Sihao Chen
  • , Pradeep Dasigi
  • , Dheeru Dua
  • , Yanai Elazar
  • , Ananth Gottumukkala
  • , Nitish Gupta
  • , Hanna Hajishirzi
  • , Gabriel Ilharco
  • , Daniel Khashabi
  • , Kevin Lin
  • , Jiangming Liu
  • , Nelson F. Liu
  • , Phoebe Mulcaire
  • , Qiang Ning
  • , Sameer Singh
  • Noah A. Smith, Sanjay Subramanian, Reut Tsarfaty, Eric Wallace, Ally Zhang, Ben Zhou

פרסום מחקרי: פרק בספר / בדוח / בכנספרסום בספר כנסביקורת עמיתים

תקציר

Standard test sets for supervised learning evaluate in-distribution generalization. Unfortunately, when a dataset has systematic gaps (e.g., annotation artifacts), these evaluations are misleading: a model can learn simple decision rules that perform well on the test set but do not capture the abilities a dataset is intended to test. We propose a more rigorous annotation paradigm for NLP that helps to close systematic gaps in the test data. In particular, after a dataset is constructed, we recommend that the dataset authors manually perturb the test instances in small but meaningful ways that (typically) change the gold label, creating contrast sets. Contrast sets provide a local view of a model’s decision boundary, which can be used to more accurately evaluate a model’s true linguistic capabilities. We demonstrate the efficacy of contrast sets by creating them for 10 diverse NLP datasets (e.g., DROP reading comprehension, UD parsing, and IMDb sentiment analysis). Although our contrast sets are not explicitly adversarial, model performance is significantly lower on them than on the original test sets—up to 25% in some cases. We release our contrast sets as new evaluation benchmarks and encourage future dataset construction efforts to follow similar annotation processes.

שפה מקוריתאנגלית
כותר פרסום המארחFindings of the Association for Computational Linguistics Findings of ACL
כותר משנה של פרסום המארחEMNLP 2020
מוציא לאורAssociation for Computational Linguistics (ACL)
עמודים1307-1323
מספר עמודים17
מסת"ב (אלקטרוני)9781952148903
סטטוס פרסוםפורסם - 2020
פורסם באופן חיצוניכן
אירועFindings of the Association for Computational Linguistics, ACL 2020: EMNLP 2020 - Virtual, Online
משך הזמן: 16 נוב׳ 202020 נוב׳ 2020

סדרות פרסומים

שםFindings of the Association for Computational Linguistics Findings of ACL: EMNLP 2020

כנס

כנסFindings of the Association for Computational Linguistics, ACL 2020: EMNLP 2020
עירVirtual, Online
תקופה16/11/2020/11/20

הערה ביבליוגרפית

Publisher Copyright:
©2020 Association for Computational Linguistics

טביעת אצבע

להלן מוצגים תחומי המחקר של הפרסום 'Evaluating models’ local decision boundaries via contrast sets'. יחד הם יוצרים טביעת אצבע ייחודית.

פורמט ציטוט ביבליוגרפי