דילוג לניווט ראשי דילוג לחיפוש דילוג לתוכן הראשי

Evaluating dependency parsing: Robust and heuristics-free cross-annotation evaluation

  • Reut Tsarfaty
  • , Joakim Nivre
  • , Evelina Andersson

פרסום מחקרי: פרק בספר / בדוח / בכנספרסום בספר כנסביקורת עמיתים

תקציר

Methods for evaluating dependency parsing using attachment scores are highly sensitive to representational variation between dependency treebanks, making cross-experimental evaluation opaque. This paper develops a robust procedure for cross-experimental evaluation, based on deterministic unification-based operations for harmonizing different representations and a refined notion of tree edit distance for evaluating parse hypotheses relative to multiple gold standards. We demonstrate that, for different conversions of the Penn Treebank into dependencies, performance trends that are observed for parsing results in isolation change or dissolve completely when parse hypotheses are normalized and brought into the same common ground.

שפה מקוריתאנגלית
כותר פרסום המארחEMNLP 2011 - Conference on Empirical Methods in Natural Language Processing, Proceedings of the Conference
עמודים385-396
מספר עמודים12
סטטוס פרסוםפורסם - 2011
פורסם באופן חיצוניכן
אירועConference on Empirical Methods in Natural Language Processing, EMNLP 2011 - Edinburgh, בריטניה
משך הזמן: 27 יולי 201131 יולי 2011

סדרות פרסומים

שםEMNLP 2011 - Conference on Empirical Methods in Natural Language Processing, Proceedings of the Conference

כנס

כנסConference on Empirical Methods in Natural Language Processing, EMNLP 2011
מדינה/אזורבריטניה
עירEdinburgh
תקופה27/07/1131/07/11

טביעת אצבע

להלן מוצגים תחומי המחקר של הפרסום 'Evaluating dependency parsing: Robust and heuristics-free cross-annotation evaluation'. יחד הם יוצרים טביעת אצבע ייחודית.

פורמט ציטוט ביבליוגרפי