近日,清华大学深圳国际研究生院耿子涵教授团队携手鹏城实验室、香港城市大学等单位,研发出一套融合双目超透镜与光学线索融合网络(OCFN)的高精度三维成像系统。该系统创新性地将物理推导的绝对立体深度测量与机器学习估算的相对深度信息通过自适应置信度映射相结合,既保证了几何精度,又增强了对弱纹理区域的鲁棒性,拓展了三维成像的应用场景和精度极限。

图1 高精度三维成像系统原理示意图。
三维成像技术在自动驾驶、医学诊断、工业检测等领域需求迫切。传统方案往往体积庞大、光学元件繁多、精度受限。纳米光子学中出现的超透镜(metalens)为小型化高性能三维成像提供了新思路。团队提出的系统由两部分组成:双目超透镜采集单元和光学线索融合网络(OCFN)。
图2 双目超透镜设计、制备与性能表征。
图3 OCFN网络原理及三维重建流程。
在算法方面,研究者设计了“光学线索融合网络”(OCFN):先用立体视差法得到稀疏的绝对深度,再借助预训练的单目深度模型生成稠密的相对深度;通过线性拟合完成尺度校正,再基于像素级置信度进行高斯加权融合,最终输出既完整又几何精确的密集深度图。该方法能在低纹理或弱特征区域依然保持深度连贯性和细节还原。
图4 实验结果与高精度三维模型可视化。

图5 测量精度和分辨率分析。
在1200×1200像素分辨率下,单帧深度预测仅需0.6秒,深度误差低于1%。实验中系统顺利区分出相距10 mm的扑克牌和30 μm的平面位移,充分验证了其对微米级高度差的敏感度。面对复杂场景,如扑克遮挡、石膏像并排或倾斜白纸,OCFN均能准确捕捉物体边界并生成光滑逼真的三维模型。
这套“超透镜+OCFN”系统体积小、集成度高、成像精度优异,适用于虚拟现实、智能交互、三维人脸识别、医疗导航、工业检测及自动驾驶等领域。
该研究成果以"High-precision three-dimensional imaging based on binocular meta-lens and optical clue fusion"为题发表在光学领域期刊《npj Nanophotonics》上。清华大学2023级硕士研究生宋昱舟与2022级硕士研究生张逸飞为论文的共同第一作者,香港城市大学的陈沐谷教授与清华大学的耿子涵教授为共同通讯作者。
研究工作获得了国家重点研发计划、鹏城实验室重大专项、深圳市基础研究重点项目、国家自然科学基金、广东省基础研究基金、深圳市科技创新委员会、中国香港特别行政区研究资助局及香港城市大学科研基金的支持。
文献链接:

