大数跨境
0
0

极市直播预告|CVPR23 Highlight:拥有top-down attention能力的ViT

极市直播预告|CVPR23 Highlight:拥有top-down attention能力的ViT 极市平台
2023-07-11
0
导读:本周四晚八点,不见不散!
↑ 点击蓝字 关注极市平台

|极市线上分享第116期 |

一直以来,为让大家更好地了解学界业界优秀的论文和工作,极市已邀请了超过100位技术大咖嘉宾,并完成了115期极市线上直播分享。

往期分享请前往bbs.cvmart.net/topics/149或直接阅读原文,也欢迎各位小伙伴自荐或推荐更多优秀的技术嘉宾到极市进行技术分享,与大家一起交流学习~~

本次分享我们邀请到了UC Berkeley计算机科学专业的在读博士生史百丰,为大家介绍他们的一些探索工作:
Visual Attention Emerges from Recurrent Sparse Reconstruction
Top-Down Visual Attention from Analysis by Synthesis(CVPR23 Highlight)
Refocusing Is Key to Transfer Learning
目前注意力机制在计算机视觉中应用十分广泛,然而大家可能并不太了解视觉注意力其实有两种:自底向上(bottom-up)和自顶向下(top-down)注意力。自底向上的注意力是指注意力仅由输入的图片决定,并且往往会注意到图片中所有的显著物体;自顶向下的注意力指注意力由当前的任务指引,并且只会关注到和当前任务相关的物体。在本次分享中,我会介绍有关两种注意力机制背后的原理以及一些应用场景。

01

直播信息

时间

2023年7月13日(周四):20:00-21:00


主题

自底向上和自顶向下的视觉注意力:原理与应用
直播

B站也将同步进行

http://live.bilibili.com/3344545

02

嘉宾介绍

史百丰

加州大学伯克利分校(UC Berkeley)计算机科学专业的在读博士生,师从Trevor Darrell教授。本科毕业于北京大学图灵班,并曾在微软亚洲研究院实习。研究方向为计算机视觉,目前主要关注视觉注意力机制的原理与应用,曾在计算机视觉与机器学习顶级会议(CVPR,ECCV,ICCV,ICML,NeurIPS等)发表过多篇文章。更多信息见个人主页:https://bfshi.github.io


03

关于分享

➤分享大纲

1.对自底向上注意力机制的介绍

    a.自底向上注意力与稀疏重建的等价性

    b.利用稀疏重建得到的自底向上注意力对模型鲁棒性和可解释性的提升

2.对自顶向下注意力机制的介绍

    a.由Analysis by Synthesis原理得到的自顶向下注意力

    b.自顶向下注意力对视觉-语言任务(如视觉问题回答)以及纯视觉任务(如图片分类,语义分割)的效果提升

3.自顶向下注意力在微调大模型中的应用

论文

Visual Attention Emerges from Recurrent Sparse Reconstruction

论文地址:https://arxiv.org/pdf/2204.10962.pdf

Top-Down Visual Attention from Analysis by Synthesis

论文地址:https://arxiv.org/pdf/2303.13043.pdf

Refocusing Is Key to Transfer Learning

论文地址:https://arxiv.org/pdf/2305.15542.pdf

04

参与方式

05

往期回顾

极市平台专注分享计算机视觉前沿资讯和技术干货,特邀请行业内专业牛人嘉宾为大家分享视觉领域内的干货及经验,目前已成功举办114期线上分享。近期在线分享可点击以下标题查看:


更多往期分享请浏览:极市计算机视觉技术分享集锦

http://bbs.cvmart.net/topics/149/cvshare),也可以点击阅读原文获取。

【声明】内容源于网络
0
0
极市平台
为计算机视觉开发者提供全流程算法开发训练平台,以及大咖技术分享、社区交流、竞赛实践等丰富的内容与服务。
内容 8155
粉丝 0
极市平台 为计算机视觉开发者提供全流程算法开发训练平台,以及大咖技术分享、社区交流、竞赛实践等丰富的内容与服务。
总阅读9.6k
粉丝0
内容8.2k