Interpreting BERT-based Text Similarity via Activation and Saliency Maps

Itzik Malkiel, Dvir Ginzburg, Oren Barkan, Avi Caciularu, Jonathan Weill, Noam Koenigstein

פרסום מחקרי: פרק בספר / בדוח / בכנספרסום בספר כנסביקורת עמיתים

תקציר

Recently, there has been growing interest in the ability of Transformer-based models to produce meaningful embeddings of text with several applications, such as text similarity. Despite significant progress in the field, the explanations for similarity predictions remain challenging, especially in unsupervised settings. In this work, we present an unsupervised technique for explaining paragraph similarities inferred by pre-trained BERT models. By looking at a pair of paragraphs, our technique identifies important words that dictate each paragraph's semantics, matches between the words in both paragraphs, and retrieves the most important pairs that explain the similarity between the two. The method, which has been assessed by extensive human evaluations and demonstrated on datasets comprising long and complex paragraphs, has shown great promise, providing accurate interpretations that correlate better with human perceptions.

שפה מקוריתאנגלית
כותר פרסום המארחWWW 2022 - Proceedings of the ACM Web Conference 2022
מוציא לאורAssociation for Computing Machinery, Inc
עמודים3259-3268
מספר עמודים10
מסת"ב (אלקטרוני)9781450390965
מזהי עצם דיגיטלי (DOIs)
סטטוס פרסוםפורסם - 25 אפר׳ 2022
אירוע31st ACM World Wide Web Conference, WWW 2022 - Virtual, Online, צרפת
משך הזמן: 25 אפר׳ 202229 אפר׳ 2022

סדרות פרסומים

שםWWW 2022 - Proceedings of the ACM Web Conference 2022

כנס

כנס31st ACM World Wide Web Conference, WWW 2022
מדינה/אזורצרפת
עירVirtual, Online
תקופה25/04/2229/04/22

הערה ביבליוגרפית

Publisher Copyright:
© 2022 ACM.

טביעת אצבע

להלן מוצגים תחומי המחקר של הפרסום 'Interpreting BERT-based Text Similarity via Activation and Saliency Maps'. יחד הם יוצרים טביעת אצבע ייחודית.

פורמט ציטוט ביבליוגרפי