تخطي إلى التنقل الرئيسي تخطي إلى البحث تخطي إلى المحتوى الرئيسي

Continuous submodular maximization: Beyond DR-submodularity

  • Moran Feldman
  • , Amin Karbasi

نتاج البحث: نشر في مجلةمقالة من مؤنمرمراجعة النظراء

ملخص

In this paper, we propose the first continuous optimization algorithms that achieve a constant factor approximation guarantee for the problem of monotone continuous submodular maximization subject to a linear constraint. We first prove that a simple variant of the vanilla coordinate ascent, called COORDINATE-ASCENT+, achieves a (2ee--11 - ε)-approximation guarantee while performing O(n/ε) iterations, where the computational complexity of each iteration is roughly O(n/√ε + n log n) (here, n denotes the dimension of the optimization problem). We then propose COORDINATE-ASCENT++, that achieves the tight (1 - 1/e - ε)-approximation guarantee while performing the same number of iterations, but at a higher computational complexity of roughly O(n32.5 + n3 log n/ε2) per iteration. However, the computation of each round of COORDINATE-ASCENT++ can be easily parallelized so that the computational cost per machine scales as O(n/√ε + n log n).

اللغة الأصليةالإنجليزيّة
دوريةAdvances in Neural Information Processing Systems
مستوى الصوت2020-December
حالة النشرنُشِر - 2020
منشور خارجيًانعم
الحدث34th Conference on Neural Information Processing Systems, NeurIPS 2020 - Virtual, Online
المدة: ٦ ديسمبر ٢٠٢٠١٢ ديسمبر ٢٠٢٠

ملاحظة ببليوغرافية

Publisher Copyright:
© 2020 Neural information processing systems foundation. All rights reserved.

بصمة

أدرس بدقة موضوعات البحث “Continuous submodular maximization: Beyond DR-submodularity'. فهما يشكلان معًا بصمة فريدة.

قم بذكر هذا