当前传统工业传感器市场由霍尼韦尔、蔡司等海外企业主导,但在智能化传感器领域,依托中国产业高质量发展的广阔需求,本土企业有望实现弯道超车,培育出具有国际竞争力的企业
“智能感知的未来,不在于纠结‘纯视觉还是多传感器融合’的路线之争,而在于打破边界的技术统一。”2025年12月16日举办的《财经》可持续发展论坛上,中科摇橹船创始人郑道勤发表主旨演讲,系统阐述了智能感知领域的全新技术路线。他指出,公司推出的空间智能相机,以“光+AI”为平台支撑,实现了感知底层的技术突破,破解了纯视觉与多传感器融合的技术瓶颈,为智能辅助驾驶、智能制造、民生安全等领域带来了全新的解决方案。
当前两大技术路线的局限
目前,智能驾驶感知系统主要遵循两种路线:
一是纯视觉路线,依赖RGB相机。但其存在明显短板:在弱光、强光、眩光、雨雪雾等复杂环境下成像质量不稳定;对异形障碍物(如纸箱、轮胎)识别能力有限;无法直接精准测距,依赖算法估算,易受干扰而产生误判。
二是多传感器融合路线,试图结合摄像头、激光雷达与毫米波雷达。然而,该路线面临物理与工程层面的挑战:各传感器之间需非常高的时空同步与标定精度,数据融合难度大;系统复杂、成本高,且在极端场景下仍有大量corner case场景无法识别。此外,激光雷达等传感器本身也接近物理识别极限,难以根本解决问题。
第三条路:空间智能相机的技术统一。
郑道勤在演讲中表示,中科摇橹船提出了“基于高时间分辨的空间推扫计算光学成像”技术,通过四项核心突破——纳秒级脉冲激光照明、皮秒级时序同步控制、空间推扫切片成像与三维重建、单光子级高灵敏度门控成像——研发出“空间智能相机”。
该相机将激光雷达的精确测距、视觉相机的成像能力、毫米波雷达的穿透与抗干扰特性,融合于单一传感器中,通过一条光路实现多功能统一,并在前端完成数据整合。这不仅打破了不同传感器之间的物理壁垒,也大幅降低了系统复杂度与融合误差。
应用前景:从自动驾驶到更广阔领域
郑道勤指出,该技术不仅能提升智能驾驶在全场景下的识别稳定性——尤其是对小目标与异形障碍物的精准捕捉,还可应用于具身智能、高速监测、区域安防、地质灾害预警乃至水下探测等民生安全领域。
尽管目前该相机无法直接识别颜色信息(如红绿灯),但可通过搭配低成本RGB相机轻松补足。其真正优势在于底层数据的统一,有效降低了传感器融合中的对齐与误判问题,降低算法开发与算力负担,有助于推动智能驾驶技术向更经济车型普及。
AI的未来是空间智能:从感知到认知
郑道勤提到,空间智能相机代表了感知层面的一次跨越,但技术演进并未止步。未来,通过多光谱扩展,该类设备不仅能实现三维感知,还可识别物体内部成分,进一步拓展至具身智能、生命科学等前沿领域。
中科摇橹船诞生于2020年底,得益于中国科学院西安光学精密机械研究所、中国工程物理研究院“两艘大船”的技术领航,其技术团队深耕高级别光电领域数十年,参与过“神光计划”、“巨浪潜射导弹”及“天问一号”等重大项目,“创立初期,我们在白纸上写下的愿景从未改变——致力于成为全球智能感知产品及方案供应商。”郑道勤在演讲最后表示,“技术的统一,不仅是感知的进化,更是人类理解和改造世界方式的进阶。”