تخطي إلى التنقل الرئيسي تخطي إلى البحث تخطي إلى المحتوى الرئيسي

Evaluating dependency parsing: Robust and heuristics-free cross-annotation evaluation

  • Reut Tsarfaty
  • , Joakim Nivre
  • , Evelina Andersson

نتاج البحث: فصل من :كتاب / تقرير / مؤتمرمنشور من مؤتمرمراجعة النظراء

ملخص

Methods for evaluating dependency parsing using attachment scores are highly sensitive to representational variation between dependency treebanks, making cross-experimental evaluation opaque. This paper develops a robust procedure for cross-experimental evaluation, based on deterministic unification-based operations for harmonizing different representations and a refined notion of tree edit distance for evaluating parse hypotheses relative to multiple gold standards. We demonstrate that, for different conversions of the Penn Treebank into dependencies, performance trends that are observed for parsing results in isolation change or dissolve completely when parse hypotheses are normalized and brought into the same common ground.

اللغة الأصليةالإنجليزيّة
عنوان منشور المضيفEMNLP 2011 - Conference on Empirical Methods in Natural Language Processing, Proceedings of the Conference
الصفحات385-396
عدد الصفحات12
حالة النشرنُشِر - 2011
منشور خارجيًانعم
الحدثConference on Empirical Methods in Natural Language Processing, EMNLP 2011 - Edinburgh, بريطانيا
المدة: ٢٧ يوليو ٢٠١١٣١ يوليو ٢٠١١

سلسلة المنشورات

الاسمEMNLP 2011 - Conference on Empirical Methods in Natural Language Processing, Proceedings of the Conference

!!Conference

!!ConferenceConference on Empirical Methods in Natural Language Processing, EMNLP 2011
الدولة/الإقليمبريطانيا
المدينةEdinburgh
المدة٢٧/٠٧/١١٣١/٠٧/١١

بصمة

أدرس بدقة موضوعات البحث “Evaluating dependency parsing: Robust and heuristics-free cross-annotation evaluation'. فهما يشكلان معًا بصمة فريدة.

قم بذكر هذا