本次分享我们邀请到了UC Berkeley计算机科学专业的在读博士生史百丰,为大家介绍他们的一些探索工作:
Visual Attention Emerges from Recurrent Sparse Reconstruction
Top-Down Visual Attention from Analysis by Synthesis(CVPR23 Highlight)
Refocusing Is Key to Transfer Learning
目前注意力机制在计算机视觉中应用十分广泛,然而大家可能并不太了解视觉注意力其实有两种:自底向上(bottom-up)和自顶向下(top-down)注意力。自底向上的注意力是指注意力仅由输入的图片决定,并且往往会注意到图片中所有的显著物体;自顶向下的注意力指注意力由当前的任务指引,并且只会关注到和当前任务相关的物体。在本次分享中,我会介绍有关两种注意力机制背后的原理以及一些应用场景。
➤论文
Visual Attention Emerges from Recurrent Sparse Reconstruction
论文地址:https://arxiv.org/pdf/2204.10962.pdf
论文地址:https://arxiv.org/pdf/2303.13043.pdf
论文地址:https://arxiv.org/pdf/2305.15542.pdf
➤回放视频在这里☟



往期线上分享集锦:http://m6z.cn/6qIJzE(或直接阅读原文)
如果觉得有用,就请分享到朋友圈吧!
推荐阅读
# CV技术社群邀请函 #
备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳)
即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群
每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~

