大数跨境
0
0

极市直播预告|CVPR2023-石鼎丰:高效时序动作检测网络TriDet

极市直播预告|CVPR2023-石鼎丰:高效时序动作检测网络TriDet 极市平台
2023-04-04
0
导读:后台回复“111”可获取免费直播链接~
↑ 点击蓝字 关注极市平台

|极市线上分享第111期 |

一直以来,为让大家更好地了解学界业界优秀的论文和工作,极市已邀请了超过100位技术大咖嘉宾,并完成了110期极市线上直播分享。

往期分享请前往bbs.cvmart.net/topics/149或直接阅读原文,也欢迎各位小伙伴自荐或推荐更多优秀的技术嘉宾到极市进行技术分享,与大家一起交流学习~~

时序动作检测(TAD)任务的目标是从一个未被裁剪的视频中检测出所有动作的类别和起终点。但是由于视频动作的边界往往具有模糊性,因此如何更精准地定位动作边界仍然是一个未被解决的问题。此外,在TAD的任务实践中,基于时间维度的attention的方法往往没有表现出像其他领域一样显著的提升,反而pipeline的设计更加重要。Attention机制为何难以捕获到动作的时序信息,也是一个值得关注的问题。
本次分享我们邀请到了北京航空航天大学博士生石鼎丰,为大家介绍他们CVPR 2023上的工作:
TriDet: Temporal Action Detection with Relative Boundary Modeling

01

直播信息

时间

2023年4月6日(周四):20:00-21:00


主题

关注时序动作检测中的边界建模与特征丢帙问题

02

嘉宾介绍

石鼎丰

现北京航空航天大学博士生,导师李甲教授,研究方向为视频理解,动作检测。更多信息详见个人主页:https://dingfengshi.github.io/


03

关于分享

➤分享大纲

1.时序动作检测(TAD)的背景介绍

2.TAD的任务现状

3.一种新的动作边界建模方法:Trident Head

4.对时序特征Attention的分析,以及改进的方法:SGP Layer

5.结果展示

论文

TriDet: Temporal Action Detection with Relative Boundary Modeling

论文地址:https://arxiv.org/abs/2303.07347

代码地址:https://github.com/dingfengshi/TriDet

04

参与方式

关注“极市平台”公众号,回复“111获取免费直播链接

04

往期回顾

极市平台专注分享计算机视觉前沿资讯和技术干货,特邀请行业内专业牛人嘉宾为大家分享视觉领域内的干货及经验,目前已成功举办110期线上分享。近期在线分享可点击以下标题查看:


更多往期分享请浏览:极市计算机视觉技术分享集锦

http://bbs.cvmart.net/topics/149/cvshare),也可以点击阅读原文获取。

CV技术社群邀请函 #

△长按添加极市小助手
添加极市小助手微信(ID : cvmart4)

备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳)


即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群


每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~


觉得有用麻烦给个在看啦~  

【声明】内容源于网络
0
0
极市平台
为计算机视觉开发者提供全流程算法开发训练平台,以及大咖技术分享、社区交流、竞赛实践等丰富的内容与服务。
内容 8155
粉丝 0
极市平台 为计算机视觉开发者提供全流程算法开发训练平台,以及大咖技术分享、社区交流、竞赛实践等丰富的内容与服务。
总阅读5.7k
粉丝0
内容8.2k