戴盟机器人近日宣布连续完成两轮亿元级天使+轮融资,由金鼎资本、国中资本、联想创投以及头部银行系投资机构联合投资。本轮融资资金,主要用于光学触觉传感器、触觉灵巧手以及含触觉的多模态感知操作模型等产物与技术研发。
戴盟机器人于2023年8月正式运营,由香港科技大学机器人研究院创始院长王煜教授及段江哗博士联合创立,致力于研发光学触觉传感器,让机器人的指尖像人一样精准感知包括叁维力觉、动觉、滑觉等在内的多模态触觉信息。目前,戴盟机器人团队规模超30人,研发人员占比超80%。
人形机器人市场规模庞大。根据市场预测,全球人形机器人市场空间将超过10万亿元,2030年全球人形机器人市场规模达到近千亿元。
然而,人形机器人距离规模化量产仍有一定距离。戴盟机器人创始人兼颁贰翱段江哗告诉36氪,人形机器人必须具备完成各种任务的能力,才能真正加速行业发展。
然而,仅靠视觉感知不足以让机器人准确理解物理世界并高效交互。视觉感知虽然可提高机器人物体识别和环境理解能力,但其易受遮挡影响,缺乏触觉感知反馈,现有数据量级难以训练出用于机器人的通用 AI,因此导致机器人手部操作能力有限,大多数只具备简单的抓取功能。
为此,戴盟机器人研发了毫米级厚度视触觉传感器,将传感器厚度从厘米级缩小至毫米级,不仅能够轻松放置于机器人手指内部,还强化了机器人对外界的感知能力。
段江哗介绍,人类手指指尖每平方厘米皮肤约有2400个触觉感受器,而戴盟机器人的视触觉传感器,触觉分辨率可达640*480和1280*960的像素级分辨率,单位面积内有着几十万个触觉感受器。“传统阵列式触觉传感器,每平方厘米内分辨率只有几乘几,与视触觉传感器有几万倍或数十万倍的差距。分辨率越高,触觉的空间感知越细微。”段江哗表示。
因此,光学触觉传感器不仅可应用于人形机器人,也可用于手术机器人、智能座舱、柔性材料加工装配等场景。目前,戴盟机器人的光学触觉传感器已小批量量产生产并投入应用。
触觉的高价值不仅体现在执行动作上,更在机器人端到端模型学习和逻辑推理中起到了重要作用。为了让机器人“学会”灵巧的操作技能,戴盟机器人将触觉与视觉、动作等数据融合,建立了视觉-触觉-动作-语言模型,让机器人能够根据触觉和视觉反馈实时调整操作,更高效地完成精细任务。
人形机器人大批量应用的另一个难点,是需要采集大量真实世界的训练数据,而以往建立在视觉、语言、身体姿态等常规模态基础上的训练方式如遥操作、硬件传感器,对数据需求量极为庞大。
据介绍,戴盟机器人整合了触觉感知之后,操作模型所需数据量最低可达到常规方法的千分之一,能增加机器人完成任务的类型,提高成功率并降低数据需求。
段江哗表示,为了提升数据采集效率和质量,戴盟机器人研发的了一套数据收集外骨骼,可不依赖机器人本体,数据采集者将其穿戴在身体上后,只需在日常的工作、生活中完成一系列动作,数据收集外骨骼的触觉传感器就能将信息收集并回传,用于更新迭代含触觉的多模态操作模型。
此外,戴盟机器人尝试向外部开放使用数据收集外骨骼,采集者穿戴后一定时长后,可获得对应报酬。据悉,其数据收集外骨骼已由部分酒店的工作人员使用。
段江哗表示,戴盟机器人正推动光学触感传感器实现大规模量产,同时也在加速研发触觉灵巧手以及含触觉的多模态感知操作模型。