突破传统:空间可变自动对焦
近日,美国卡内基梅隆大学(CMU)的一项研究实现了根本性突破,提出全新成像范式——“Spatially-Varying Autofocus”(空间可变自动对焦),该成果获ICCV2025最佳论文荣誉提名奖。 论文一作、CMU博士生秦颖思介绍:“我们构建了首个能在单次曝光中实现像素区域级自动对焦的成像系统。”
图 | 秦颖思(来源:https://yingsiqin.github.io/)
这项技术首次摆脱“单一焦平面”的束缚,将对焦从固定平面升级为可自由编程、随场景动态调整的焦曲面,使相机能够在复杂三维场景中一次性捕获全区域清晰图像。
图|空间可变自动对焦(来源:https://imaging.cs.cmu.edu/svaf)
实现三大超越性功能
新技术可在一次曝光中让各图像区域独立对焦至正确深度,实现真正的“全场景清晰”,无需后期合成处理。 此外,相机能“看穿”前景遮挡物,如铁丝网或树枝,在光学层面将其极度虚化甚至不可见,仅聚焦主体与背景。 同时支持创意虚化控制,用户可指定特定区域(如凯旋门与远处楼宇)清晰对焦,其余部分自动模糊,拍摄即得理想效果。(来源:https://imaging.cs.cmu.edu/svaf)
核心创新:光学与算法协同突破
秦颖思指出,该系统级突破依赖两大首创性技术:一是可编程光学结构,首次为不同传感器像素赋予差异化焦距;二是新型算法框架,首次实现各图像区域独立自动对焦的驱动控制。 二者结合形成了全球首个具备像素级独立对焦能力的成像系统,其中“自动”特性由算法实时主导。
图|原型机(来源:https://imaging.cs.cmu.edu/svaf)
系统通过可编程焦曲面匹配真实场景深度分布,在保持大光圈和高通光量前提下,直接完成全场清晰成像,无需多帧融合或后期处理。
图|静态成果例子(来源:https://imaging.cs.cmu.edu/svaf/static/pdfs/Spatially_Varying_Autofocus.pdf)
核心技术原理
研究团队借鉴了此前在VR显示领域的Split-Lohmann多焦面3D显示技术,并基于光路可逆原理将其应用于成像系统,从而实现实时信息捕捉。“智能眼镜”式的像素控制
核心技术名为“Split-Lohmann 计算透镜”,包含两片特殊立方相位板及一块空间光调制器(SLM),构成可编程“智能画布”。 SLM可针对不同光线路径进行编程调控,使每个像素点对应一个独立焦距设置,相当于为相机每一个像素配备专属“智能眼镜”。 例如拍摄人物站在樱花树下的场景时,靠近人物的像素被设定为近焦,远处花朵对应的像素则设为远焦,从而在同一画面中实现多焦点成像。
图|光学系统(来源:https://imaging.cs.cmu.edu/svaf)
双路径自动对焦算法
仅具可变焦硬件仍不足,还需精准感知深度以分配对焦策略。对比度探测法(CDAF)
系统先拍摄三张不同对焦深度的预览图,分析各区域对比度(颜色与明暗反差),选取最高值对应焦距作为最优解。 随后逐步缩小搜索范围,快速收敛至最佳对焦位置,避免全面扫描带来的效率损耗。
图|CDAF 介绍(来源:https://imaging.cs.cmu.edu/svaf)
相位探测法(PDAF)
采用双像素传感器,每个像素下设两个光电二极管,分别捕捉略有视差的图像。 当物体失焦时,两图像出现偏移;通过计算偏移量即可判定离焦程度并立即校正,实现“一眼看穿”式瞬时对焦。
图|PDAF 介绍(来源:https://imaging.cs.cmu.edu/svaf)
秦颖思表示,两种方法均用于精确估计场景深度,未来可与AI或主动感知技术融合,进一步提升精度与鲁棒性。实现实时动态对焦
该技术不仅适用于静态成像,研究团队已基于PDAF实现21FPS的实时全场景动态对焦。录像动图|实时全场景动态对焦(来源:https://imaging.cs.cmu.edu/svaf)

