METRICBERT: TEXT REPRESENTATION LEARNING VIA SELF-SUPERVISED TRIPLET TRAINING

Itzik Malkiel, Dvir Ginzburg, Oren Barkan, Avi Caciularu, Yoni Weill, Noam Koenigstein

פרסום מחקרי: פרק בספר / בדוח / בכנספרסום בספר כנסביקורת עמיתים

תקציר

We present MetricBERT, a BERT-based model that learns to embed text under a well-defined similarity metric while simultaneously adhering to the “traditional” masked-language task. We focus on downstream tasks of learning similarities for recommendations where we show that MetricBERT outperforms state-of-the-art alternatives, sometimes by a substantial margin. We conduct extensive evaluations of our method and its different variants, showing that our training objective is highly beneficial over a traditional contrastive loss, a standard cosine similarity objective, and six other baselines. As an additional contribution, we publish a dataset of video games descriptions along with a test set of similarity annotations crafted by a domain expert.

שפה מקוריתאנגלית
כותר פרסום המארח2022 IEEE International Conference on Acoustics, Speech, and Signal Processing, ICASSP 2022 - Proceedings
מוציא לאורInstitute of Electrical and Electronics Engineers Inc.
עמודים8142-8146
מספר עמודים5
מסת"ב (אלקטרוני)9781665405409
מזהי עצם דיגיטלי (DOIs)
סטטוס פרסוםפורסם - 2022
אירוע47th IEEE International Conference on Acoustics, Speech, and Signal Processing, ICASSP 2022 - Virtual, Online, סינגפור
משך הזמן: 23 מאי 202227 מאי 2022

סדרות פרסומים

שםICASSP, IEEE International Conference on Acoustics, Speech and Signal Processing - Proceedings
כרך2022-May
ISSN (מודפס)1520-6149

כנס

כנס47th IEEE International Conference on Acoustics, Speech, and Signal Processing, ICASSP 2022
מדינה/אזורסינגפור
עירVirtual, Online
תקופה23/05/2227/05/22

הערה ביבליוגרפית

Publisher Copyright:
© 2022 IEEE

טביעת אצבע

להלן מוצגים תחומי המחקר של הפרסום 'METRICBERT: TEXT REPRESENTATION LEARNING VIA SELF-SUPERVISED TRIPLET TRAINING'. יחד הם יוצרים טביעת אצבע ייחודית.

פורמט ציטוט ביבליוגרפי