Grad-SAM: Explaining Transformers via Gradient Self-Attention Maps

Oren Barkan, Edan Hauon, Avi Caciularu, Ori Katz, Itzik Malkiel, Omri Armstrong, Noam Koenigstein

نتاج البحث: فصل من :كتاب / تقرير / مؤتمرمنشور من مؤتمرمراجعة النظراء

ملخص

Transformer-based language models significantly advanced the state-of-the-art in many linguistic tasks. As this revolution continues, the ability to explain model predictions has become a major area of interest for the NLP community. In this work, we present Gradient Self-Attention Maps (Grad-SAM) - a novel gradient-based method that analyzes self-attention units and identifies the input elements that explain the model's prediction the best. Extensive evaluations on various benchmarks show that Grad-SAM obtains significant improvements over state-of-the-art alternatives.

اللغة الأصليةالإنجليزيّة
عنوان منشور المضيفCIKM 2021 - Proceedings of the 30th ACM International Conference on Information and Knowledge Management
ناشرAssociation for Computing Machinery
الصفحات2882-2887
عدد الصفحات6
رقم المعيار الدولي للكتب (الإلكتروني)9781450384469
المعرِّفات الرقمية للأشياء
حالة النشرنُشِر - 26 أكتوبر 2021
الحدث30th ACM International Conference on Information and Knowledge Management, CIKM 2021 - Virtual, Online, أستراليا
المدة: ١ نوفمبر ٢٠٢١٥ نوفمبر ٢٠٢١

سلسلة المنشورات

الاسمInternational Conference on Information and Knowledge Management, Proceedings

!!Conference

!!Conference30th ACM International Conference on Information and Knowledge Management, CIKM 2021
الدولة/الإقليمأستراليا
المدينةVirtual, Online
المدة١/١١/٢١٥/١١/٢١

ملاحظة ببليوغرافية

Publisher Copyright:
© 2021 ACM.

بصمة

أدرس بدقة موضوعات البحث “Grad-SAM: Explaining Transformers via Gradient Self-Attention Maps'. فهما يشكلان معًا بصمة فريدة.

قم بذكر هذا