תקציר
In video understanding, the spatial patterns formed by local space-time interest points hold discriminative information. We encode these spatial regularities using a word2vec neural network, a recently proposed tool in the field of text processing. Then, building upon recent accumulator based image representation solutions, input videos are represented in a hybrid manner: the appearance of local space time interest points is used to collect and associate the learned descriptors, which capture the spatial patterns. Promising results are shown on recent action recognition benchmarks, using well established methods as the underlying appearance descriptors.
שפה מקורית | אנגלית |
---|---|
כותר פרסום המארח | Proceedings - 2014 IEEE Conference on Computer Vision and Pattern Recognition Workshops, CVPRW 2014 |
מוציא לאור | IEEE Computer Society |
עמודים | 520-525 |
מספר עמודים | 6 |
מסת"ב (אלקטרוני) | 9781479943098, 9781479943098 |
מזהי עצם דיגיטלי (DOIs) | |
סטטוס פרסום | פורסם - 24 ספט׳ 2014 |
אירוע | 2014 IEEE Conference on Computer Vision and Pattern Recognition Workshops, CVPRW 2014 - Columbus, ארצות הברית משך הזמן: 23 יוני 2014 → 28 יוני 2014 |
סדרות פרסומים
שם | IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops |
---|---|
ISSN (מודפס) | 2160-7508 |
ISSN (אלקטרוני) | 2160-7516 |
כנס
כנס | 2014 IEEE Conference on Computer Vision and Pattern Recognition Workshops, CVPRW 2014 |
---|---|
מדינה/אזור | ארצות הברית |
עיר | Columbus |
תקופה | 23/06/14 → 28/06/14 |
הערה ביבליוגרפית
Publisher Copyright:© 2014 IEEE.