目前的目标跟踪框架,一般采用“分而治之”的思想来建模跟踪任务,也就是把目标跟踪拆分为分类、回归、角点预测等多个子任务来分别解决。尽管这些方法很有效,但它们引入了多个定制化的预测头以及冗余的损失函数,使模型和训练流程变得复杂。直觉上,如果跟踪模型知道目标在哪,那么我们只需要教模型简单地读出目标的位置,而不需要显式地进行分类、回归。
本次分享我们邀请到了大连理工大学信通学院IIAU-LAB博士研究生陈鑫,为大家介绍他们的工作:
SeqTrack: Sequence to Sequence Learning for Visual Object Tracking (CVPR2023)
“我们通过将跟踪任务建模为单纯的序列生成任务,用Seq2seq的Transformer模型来完成视觉目标跟踪。实验表明,这种新的跟踪框架不仅摆脱了冗余的预测头和损失函数,也在多个数据集上取得了优秀的性能。”
➤论文
SeqTrack: Sequence to Sequence Learning for Visual Object Tracking (CVPR2023)
论文地址:http://arxiv.org/abs/2304.14394
代码地址:https://github.com/microsoft/VideoX
➤回放视频在这里☟
https://www.bilibili.com/video/BV1wm4y147ws/
➤PPT内容截图(后台回复“极市直播”或点击阅读原文即可获取PPT)



B站:http://space.bilibili.com/85300886#!/
腾讯视频:http://v.qq.com/vplus/8be9a676d97c74ede37163dd964d600c
往期线上分享集锦:http://m6z.cn/6qIJzE(或直接阅读原文)
如果觉得有用,就请分享到朋友圈吧!
推荐阅读
备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳)
即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群
每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~
觉得有用麻烦给个在看啦~