上期我们邀请到了悉尼大学孙书洋,为我们讲解CVPR 2018论文《OpticalFlow Guided Feature:...》光流导向特征在视频动作识别中的应用的主要内容,大家受益匪浅。本期嘉宾,南加州大学博士高继扬,将和大家分享Temporal Action Proposal Generation and Detection in Videos.(时序动作检测),欢迎大家踊跃参加,与嘉宾直接互动~ 01 活动信息 主题:Temporal Action Proposal Generation and Detection in Videos.(时序动作检测) 时间:周六(7月14日)上午10:00~11:30 02 嘉宾信息 高继扬 2015年毕业于清华大学,目前南加州大学博士在读,指导老师为 Ram Nevatia。博士期间主要研究方向是视频中的时序分析与推理(Temporalperception and reasoning in videos),更多信息见个人主页https://jiyanggao.。 03 关于分享 ➤分享背景 本次分享的主题是关于时序动作检测的,也就是检测视频中动作的类别和起止时间。通常而言,这个任务分为proposal generation和action detection两步,类似于目标检测领域的 two-stage method。从CVPR16以来,有若干篇文章提出并验证过不同的方法。我会以我的四篇文章(2篇ICCV17,1篇BMVC2017 和1篇ECCV18)为主线,并结合其他文章,尝试梳理该问题的主要方法和扩展。 ➤分享大纲
分享涉及论文(嘉宾一作): 【1】CTAP: ComplementaryTemporal Action Proposal Generation,ECCV(2018) 预计本周挂出,敬请期待。 【2】TALL: Temporal Activity Localization via Language Query,ICCV(2017) https:///abs/1705.02101 【3】TURN TAP: Temporal UnitRegression Network for Temporal Action Proposals,ICCV(2017) https:///abs/1703.06189 【4】Cascaded BoundaryRegression for Temporal Action Detection,BMVC(2017) https:///abs/1705.01180 04 参与方式 |
|