Grad-SAM: Explaining Transformers via Gradient Self-Attention Maps

Oren Barkan, Edan Hauon, Avi Caciularu, Ori Katz, Itzik Malkiel, Omri Armstrong, Noam Koenigstein

פרסום מחקרי: פרק בספר / בדוח / בכנספרסום בספר כנסביקורת עמיתים

תקציר

Transformer-based language models significantly advanced the state-of-the-art in many linguistic tasks. As this revolution continues, the ability to explain model predictions has become a major area of interest for the NLP community. In this work, we present Gradient Self-Attention Maps (Grad-SAM) - a novel gradient-based method that analyzes self-attention units and identifies the input elements that explain the model's prediction the best. Extensive evaluations on various benchmarks show that Grad-SAM obtains significant improvements over state-of-the-art alternatives.

שפה מקוריתאנגלית
כותר פרסום המארחCIKM 2021 - Proceedings of the 30th ACM International Conference on Information and Knowledge Management
מוציא לאורAssociation for Computing Machinery
עמודים2882-2887
מספר עמודים6
מסת"ב (אלקטרוני)9781450384469
מזהי עצם דיגיטלי (DOIs)
סטטוס פרסוםפורסם - 26 אוק׳ 2021
אירוע30th ACM International Conference on Information and Knowledge Management, CIKM 2021 - Virtual, Online, אוסטרליה
משך הזמן: 1 נוב׳ 20215 נוב׳ 2021

סדרות פרסומים

שםInternational Conference on Information and Knowledge Management, Proceedings

כנס

כנס30th ACM International Conference on Information and Knowledge Management, CIKM 2021
מדינה/אזוראוסטרליה
עירVirtual, Online
תקופה1/11/215/11/21

הערה ביבליוגרפית

Publisher Copyright:
© 2021 ACM.

טביעת אצבע

להלן מוצגים תחומי המחקר של הפרסום 'Grad-SAM: Explaining Transformers via Gradient Self-Attention Maps'. יחד הם יוצרים טביעת אצבע ייחודית.

פורמט ציטוט ביבליוגרפי