大数跨境

清华深圳国际研究生院耿子涵团队在高精度三维成像领域的最新进展

清华深圳国际研究生院耿子涵团队在高精度三维成像领域的最新进展 两江科技评论
2025-08-07
1
导读:近日,清华大学深圳国际研究生院耿子涵教授团队携手鹏城实验室、香港城市大学等单位,研发出一套融合双目超透镜与光学线索融合网络(OCFN)的高精度三维成像系统。
欢迎课题组投递中文宣传稿,投稿方式见文末

导读  

近日,清华大学深圳国际研究生院耿子涵教授团队携手鹏城实验室、香港城市大学等单位,研发出一套融合双目超透镜与光学线索融合网络(OCFN)的高精度三维成像系统。该系统创新性地将物理推导的绝对立体深度测量与机器学习估算的相对深度信息通过自适应置信度映射相结合,既保证了几何精度,又增强了对弱纹理区域的鲁棒性,拓展了三维成像的应用场景和精度极限。


高精度三维成像系统原理示意图。

研究亮点

三维成像技术在自动驾驶、医学诊断、工业检测等领域需求迫切。传统方案往往体积庞大、光学元件繁多、精度受限。纳米光子学中出现的超透镜(metalens)为小型化高性能三维成像提供了新思路。团队提出的系统由两部分组成:双目超透镜采集单元和光学线索融合网络(OCFN)。


双目超透镜设计、制备与性能表征。


系统核心是一对直径2.6毫米、间距毫米的氮化镓超透镜,工作波长532 nm,聚焦效率达74%,焦距偏差低于0.5%,可直接集成于CMOS传感器,实现单次曝光的双目采集。

3 OCFN网络原理及三维重建流程。


在算法方面,研究者设计了光学线索融合网络OCFN):先用立体视差法得到稀疏的绝对深度,再借助预训练的单目深度模型生成稠密的相对深度;通过线性拟合完成尺度校正,再基于像素级置信度进行高斯加权融合,最终输出既完整又几何精确的密集深度图。该方法能在低纹理或弱特征区域依然保持深度连贯性和细节还原。


4 实验结果与高精度三维模型可视化。


测量精度和分辨率分析。


1200×1200像素分辨率下,单帧深度预测仅需0.6秒,深度误差低于1%。实验中系统顺利区分出相距10 mm的扑克牌和30 μm的平面位移,充分验证了其对微米级高度差的敏感度。面对复杂场景,如扑克遮挡、石膏像并排或倾斜白纸,OCFN均能准确捕捉物体边界并生成光滑逼真的三维模型。


这套“超透镜+OCFN”系统体积小、集成度高、成像精度优异,适用于虚拟现实、智能交互、三维人脸识别、医疗导航、工业检测及自动驾驶等领域。

总结与展望

该研究成果以"High-precision three-dimensional imaging based on binocular meta-lens and optical clue fusion"为题发表在光学领域期刊《npj Nanophotonics》上。清华大学2023级硕士研究生宋昱舟与2022级硕士研究生张逸飞为论文的共同第一作者,香港城市大学的陈沐谷教授与清华大学的耿子涵教授为共同通讯作者。


研究工作获得了国家重点研发计划、鹏城实验室重大专项、深圳市基础研究重点项目、国家自然科学基金、广东省基础研究基金、深圳市科技创新委员会、中国香港特别行政区研究资助局及香港城市大学科研基金的支持。


文献链接:

https://doi.org/10.1038/s44310-025-00070-9


撰稿 | 课题组 
免责声明:本文旨在传递更多科研资讯及分享,所有其他媒、网来源均注明出处,如涉及版权问题,请作者第一时间后台联系,我们将协调进行处理,所有来稿文责自负,两江仅作分享平台。转载请注明出处,如原创内容转载需授权,请联系下方微信号。


【声明】内容源于网络
0
0
两江科技评论
聚焦“光声力热”超构材料、凝聚态物理、生物医学、智能制造等领域,打造科研人便捷的交流平台,发布优质新鲜的科研资讯。
内容 6001
粉丝 0
两江科技评论 聚焦“光声力热”超构材料、凝聚态物理、生物医学、智能制造等领域,打造科研人便捷的交流平台,发布优质新鲜的科研资讯。
总阅读16.8k
粉丝0
内容6.0k