תקציר
Transformer-based language models significantly advanced the state-of-the-art in many linguistic tasks. As this revolution continues, the ability to explain model predictions has become a major area of interest for the NLP community. In this work, we present Gradient Self-Attention Maps (Grad-SAM) - a novel gradient-based method that analyzes self-attention units and identifies the input elements that explain the model's prediction the best. Extensive evaluations on various benchmarks show that Grad-SAM obtains significant improvements over state-of-the-art alternatives.
| שפה מקורית | אנגלית |
|---|---|
| כותר פרסום המארח | CIKM 2021 - Proceedings of the 30th ACM International Conference on Information and Knowledge Management |
| מוציא לאור | Association for Computing Machinery |
| עמודים | 2882-2887 |
| מספר עמודים | 6 |
| מסת"ב (אלקטרוני) | 9781450384469 |
| מזהי עצם דיגיטלי (DOIs) | |
| סטטוס פרסום | פורסם - 30 אוק׳ 2021 |
| אירוע | 30th ACM International Conference on Information and Knowledge Management, CIKM 2021 - Virtual, Online, אוסטרליה משך הזמן: 1 נוב׳ 2021 → 5 נוב׳ 2021 |
סדרות פרסומים
| שם | International Conference on Information and Knowledge Management, Proceedings |
|---|---|
| ISSN (מודפס) | 2155-0751 |
כנס
| כנס | 30th ACM International Conference on Information and Knowledge Management, CIKM 2021 |
|---|---|
| מדינה/אזור | אוסטרליה |
| עיר | Virtual, Online |
| תקופה | 1/11/21 → 5/11/21 |
הערה ביבליוגרפית
Publisher Copyright:© 2021 ACM.