许辰人
北京大学博雅长聘副教授
许辰人是北京大学博雅长聘副教授、计算机学院院长助理、网络与高能效计算研究所副所长。2014年从美国罗格斯大学获得博士学位,曾任卡耐基梅隆大学博士后/研究员,日本庆应义塾大学客座教授,AT&T香农实验室和微软研究院访问学者。研究领域为超视智能(具身智能物联网与多模态驱动科学与工程智能),先后主持基金委优青/重点项目和科技部重点研发计划课题,所研移动物联网高性能感知互联系统研究成果获CCF技术发明一等奖(2025,排1)、MobiCom/MobiSys/SenSys/UbiComp最佳论文类奖项6次、达摩院青橙奖、华为十大发明、日本大川基金研究奖、日内瓦国际发明展金奖,在华为鸿蒙终端和阿里物流等系统得到大规模商用。担任ACM IMWUT副主编、Nature合作期刊《人工智能》编委、担任UbiComp大会主席(2026)、程序委员会主席(2025)和指导委员会委员,MobiSys大会主席(2025),SIGCOMM/MobiCom/NSDI程序委员会及组委会委员、ACM SIGDX(数智化转型)外联大使、ACM SIGBED(嵌入式智能系统)中国区秘书长和卡耐基梅隆大学北京校友会理事。
演讲主题
破解“视觉盲区”:多模态超视感知如何重塑下一代具身智能
随着多模态具身智能在真实环境中的应用不断拓展,系统在环境适应泛化、隐性信息感知、物体属性检测等复杂场景理解方面的需求持续提升。本报告从“超视智能感知”切入,旨在突破传统视觉在暗光、遮挡、材质均一与结构不可见等情境下的固有局限,基于电、声、磁、射频等可穿透、多物理场模态,系统呈现多模态超视感知在仓储管理、生物行为追踪、液体识别、智能体交互等任务中的最新进展,并讨论其对下一代具身智能能力的推动作用。本报告还将讨论多模态数据规模和质量的不足,提出面向超视场景的数据引擎,用于扩展真实与合成数据的覆盖范围,并探讨跨模态合成、弱监督学习与 Real2Sim2Real 等方向在构建统一数据基座中的潜力。最后,本报告对具身实时视频交互场景的端到端全链路计算架构进行了初步探索,支撑了上述复杂多模态数据的实时性需求。