A piggyback representation for action recognition

Lior Wolf, Yair Hanani, Tal Hassner

פרסום מחקרי: פרק בספר / בדוח / בכנספרסום בספר כנסביקורת עמיתים

תקציר

In video understanding, the spatial patterns formed by local space-time interest points hold discriminative information. We encode these spatial regularities using a word2vec neural network, a recently proposed tool in the field of text processing. Then, building upon recent accumulator based image representation solutions, input videos are represented in a hybrid manner: the appearance of local space time interest points is used to collect and associate the learned descriptors, which capture the spatial patterns. Promising results are shown on recent action recognition benchmarks, using well established methods as the underlying appearance descriptors.

שפה מקוריתאנגלית
כותר פרסום המארחProceedings - 2014 IEEE Conference on Computer Vision and Pattern Recognition Workshops, CVPRW 2014
מוציא לאורIEEE Computer Society
עמודים520-525
מספר עמודים6
מסת"ב (אלקטרוני)9781479943098, 9781479943098
מזהי עצם דיגיטלי (DOIs)
סטטוס פרסוםפורסם - 24 ספט׳ 2014
אירוע2014 IEEE Conference on Computer Vision and Pattern Recognition Workshops, CVPRW 2014 - Columbus, ארצות הברית
משך הזמן: 23 יוני 201428 יוני 2014

סדרות פרסומים

שםIEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops
ISSN (מודפס)2160-7508
ISSN (אלקטרוני)2160-7516

כנס

כנס2014 IEEE Conference on Computer Vision and Pattern Recognition Workshops, CVPRW 2014
מדינה/אזורארצות הברית
עירColumbus
תקופה23/06/1428/06/14

הערה ביבליוגרפית

Publisher Copyright:
© 2014 IEEE.

טביעת אצבע

להלן מוצגים תחומי המחקר של הפרסום 'A piggyback representation for action recognition'. יחד הם יוצרים טביעת אצבע ייחודית.

פורמט ציטוט ביבליוגרפי