欢迎访问亿博(yibo)体育官网入口app!

预约上门| 联系亿博体育

全国24服务热线

400-123-4567
行业新闻 公司新闻
具身智能是什么?现在发展现状怎么样?
时间:2023-10-30 14:21:10        点击量:【 】次

  具身智能是什么?现在发展现状怎么样?在6月29日举行的“2023世界人工智能大会”新闻发布会上,上海市经济和信息化委员会表示,2023世界人工智能大会将进一步围绕产业和技术变革新风口,聚焦具身智能,布局智能机器人先进技术。前不久在ITF World 2023半导体大会上,也有业内大佬放出豪言,。另外,谷歌、微软、特斯拉等科技公司近日都相继公布了自家的具身智能产品。(参考来源:上海证券报,2023.06.29;科创板日报,2023.05.17;华尔街见闻,2023.05.19;此处不作个股推荐)

  果然啊,几天没看新闻,可能就又赶不上热点了。那么咱们今天就来补补课,聊聊「“具身智能”」究竟是什么神奇的新领域~

  我们先来了解一下什么是“具身智能”:具身智能,英文名是Embodied Intelligence,简称EI。1950 年,图灵在论文《Computing Machinery and Intelligence》中第一次提出了具身智能的概念,TA是能像人一样能和环境交互感知,自主规划、决策、行动,并具备执行能力的机器人或仿真人,是AI的终极形态。(参考来源:申港证券,2023.06.25)

  经过几十年的发展,现在我们是这样定义具身智能的——在机器智能领域中,通过把智能算法和物理实体的感知、行动和环境交互相结合,让机器能够通过更自然、更智能的方式和环境进行交互并解决问题的能力。(参考来源:中国经营报,2023.06.03;华尔街见闻,2023.05.19)

  是不是听了但还是不太明白?没关系,咱们可以简单就把它理解成“拥有实体,能够感知并理解周边环境,通过自主学习完成任务的智能体”。

  首先,具身智能和传统AI有什么不一样?无论是ChatGPT,还是其它AIGC,都关注于数据处理和符号推理,对物理世界并不能从实际上产生影响;而具身智能则多了一个身体,通过传感器收集环境信息,利用机械执行器进行物理操作,或者通过机器人等具体实体和人类及环境进行实时互动。所以亿博,对具身智能也能理解成是ChatGPT这类大模型有了身体。

  第二个问题,具身智能就是人形机器人吗?具身智能强调的是AI系统具备感知、思考、学习、决策等能力,并且能够和环境进行交互;而人形机器人指的具备人类的外形特征和行动能力的智能机器人,可以双腿行走,通过手臂和身体的协调完成一些功能,还可以通过语音和人类交流互动。具身智能相当于把GPT这类大模型技术引入人形机器人,让机器人具备更强的感知和交互能力。所以,人形机器人是具身智能的物理形态之一,但具身智能并不一定就长成人形机器人的样子,根据使用用途和场景的不同,具身智能也可以是动物、汽车、飞行器等等的形态。

  具身智能、AI和人形机器人,三者之间既有区别又有着紧密联系,具身智能可能是AI的终极形态,而人形机器人则是实现具身智能的物理形态之一。(参考来源:华尔街见闻,2023.05.19;证券日报,2023.07.01)

  当然了,每次聊到这些科技概念,都不可避免要谈到一个问题:能落地吗?距离商业化应用还有多远?最近有关具身智能的分析和报道很多,小夏发现当前业内对于这项技术的落地其实还有比较多的争议和分歧。

  乐观派认为,具身智能技术发展的条件目前已经成熟,深度学习给具身智能提供了处理真实世界视觉信号的能力,自然语言处理(NLP)给具身智能带来了和人类通过语音、文字交流并从自然文本中学习的可能,AIGC的快速发展也将为具身智能技术瓶颈突破提供重要驱动力。

  但谨慎派则表示,具身智能技术还处于早期孵化阶段,要实现真正的商业化落地,还需要直面诸多困难,包括关键核心技术不成熟、产业链生态尚未形成、安全与伦理挑战突出、相关法律法规和标准体系不健全等等。(参考来源:申港证券,2023.06.25;中国经营报,2023.06.03)

  A类基金认购时一次性收取认购费,无销售服务费;C类无认购费,但收取销售服务费。二者因费用收取、成立时间可能不同等,长期业绩表现可能存在较大差异,具体请详阅产品定期报告。 风险提示:1.本基金为股票基金,其预期风险和预期收益高于混合基金、债券基金 与货币市场基金。具体风险评级结果以基金管理人和销售机构提供的评级结果为准。2.本基金主要投资于标的指数成份股、备选成份股。投资于本基金存在标的指数回报与股票市场平均回报偏离、标的指数波动、基金投资组合回报与标的指数回报偏离等主要风险。为更好地实现投资目标,基金还可投资于非成份股(含中小板、创业板及其他中国证监会注册或核准上市的股票)、债券(包括国债、央行票据、金融债券、企业债券、公司债券、 中期票据、短期融资券、超短期融资券、次级债券、地方政府债券、可转换债券、可交换债券及其他经中国证监会允许投资的债券)、衍 生品(包括股指期货、股票期权、国债期货)、资产支持证券、货币市场工具(含同业存单、债券回购等)、银行存款以及法律法规或中国证监会允许基金投资的其他金融工具。本基金可根据法律法规的规 定参与转融通证券出借业务。本基金投资范围中的股票包含存托凭证。3.投资者在投资本基金之前,请仔细阅读本基金的《基金合同》《招募说明书》和《产品资料概要》等基金法律文件,充分认识本基金的风险收益特征和产品特性,并根据自身的投资目的、投资期限、投资经验、资产状况等因素充分考虑自身的风险承受能力,在了解产品情况及销售适当性意见的基础上,理性判断并谨慎做出投资决策,独立承担投资风险。4.基金管理人不保证本基金一定盈利,也不保证最低收益。本基金的过往业绩及其净值高低并不预示其未来业绩表现,基金管理人管理的其他基金的业绩并不构成对本基金业绩表现的保证。5.基金管理人提醒投资者基金投资的“买者自负”原则,在投资者做出投资决策后,基金运营状况、基金份额上市交易价格波动与基金净值变化引致的投资风险,由投资者自行负责。6.中国证监会对本基金的注册,并不表明其对本基金的投资价值、市场前景和收益作出实质性判断或保证,也不表明投资于本基金没有风险。7.本产品由华夏基金发行与管理,代销机构不承担产品的投资、兑付和风险管理责任。8.本资料不作为任何法律文件,资料中的所有信息或所表达意见不构成投资、法律、会计或税务的最终操作建议,我公司不就资料中的内容对最终操作建议做出任何担保。在任何情况下,本公司不对任何人因使用本资料中的任何内容所引致的任何损失负任何责任。我国基金运作时间较短,不能反映股市发展的所有阶段。市场有风险,投资需谨慎。

  黄仁勋在ITF Wold2023半导体大会上表示,人工智能的下一个浪潮是具身智能(Embodied AI),即能理解、推理、并与物理世界互动的智能系统,比如机器人、自动驾驶汽车,甚至聊天机器人,他们都能很好的理解物理世界。同时,黄仁勋公布 Nividia VIMA,一个多模态具身视觉语言模型。据介绍,VIMA 可以通过视觉执行任务,也可以通过文本提示来做任务,比如重新排列这些方块以与场景匹配;它能明白概念,采取适当行动,他可以在演示中学习,并且将行为控制在合理范畴内。

  1950年,图灵在他的论文一《Computing Machinery and Intelligence》中首次提出了具身智能的概念。具身智能(Embodied AI)指的是,有身体并支持物理交的智能体,如智能服务机器人、自动驾驶汽车等,具身智能机器人指的是,像人一样能够与环境交互感知、自助规划、决策、行动、执行任务的机器人。

  它包含人工智能领域几乎所有的技术,包括机器视觉、自然语言理解、认知和推理、机器人学、博弈伦理、机器学习等,横跨多个学科方向,是人工智能的集大成者。

  目前大部分深度学习模型训练使用的数据来自于互联网(Internat AI)而非现实世界第一人称视角只能学习到数据中心的固定模式,但无法在真实世界中直接学习,因此也无法适应真实世界。现实当中的人类是通过对现实世界的观察、互动、反馈等学习,大脑中的部分认知依赖物理身体与世界持续不断的交互,因此学习到越来越多的技能来适应环境。

  斯坦福大学的李飞飞教授称“具身的含义不是身体本身,而是与环境交互以及在环境中做事的整体需求和功能。”上海交通大学的卢策吾教授通过猫学习走路来做出形象比喻:“如图中的猫样,主动猫是具身的智能,它可以在环境中自由行动,从而学习行走的能力。被动猫只能被动的观察世界,最终失去了行走能力。”

  实践性学习方法与旁观型学方法的不同点在于,实践性学习是机器人像人一样,通过物理身体与环境的互动来学习,可以主动感知或者执行任务的方法来感知世界,对世界进行建模,增强对世界的认知和锻炼行能力。

  拆解具身智能的应用过程当人要求机器人完成某一项任务,机器人要经过的步骤包括:能够听懂人类语言 分解任务规划子任务移动中识别物体 与环境交互 最终完成相应任务。这个过程涉及到自然语言理解、逻辑推理、机器视觉、运动控制、机器学习、运动规划、机械控制等。因此要实现完全的具身智能,依然有很长的一段路要走。

  今年的 IROS(机器人领域顶级学术会议)将具身智能作为重要主题。目前谷歌、微软等技术团队、众多顶尖研究院所和高校已探索具身智能的发展落地。参考申万TMT 团队的《跨模态:更多应用场景出现,中国公司得到更大机会》、《Meta 发布 SAM 分割模型,或成 CV大模型第一步》,我们对最新的机器人算法模型进行梳理:

  PaLM 包括了 40B 语言模型与 22B 视觉 ViT(Vison Transformer)模型,最终参数量达 562E。PaLM-E本身是个多模态的大模型不仅能理解文本,还能理解图片(ViT)可以理解图片中的语义信息。ViT将大模型能力泛化至CV领域,赋予大模型视觉能力。

  两相结合,PaLM-E 模型具备多模态能力,能观察物理实体世界的信息,由大模型进行分析理解,再将决策结果反馈至物理世界,由此沟通物理和虚拟两个世界。

  1)发现参数扩大有助于提升人机交互中的语言能力:语言模型越大,在视觉语言与机器人任务的训练中,保持的语言能力就越强,5620 亿参数的 PaLM-E 几乎保持了它所有的语言能力。

  2)对于机器人的长跨度、长周期任务,以往通常需要人工协助, PaLM-E 通过自主学习全部完成,如下图左。

  3)展示了模型的泛化能力,研究人员要求机器人将“绿块推到乌龟旁边”的指令,即便机器人之前没有见过这只乌龟摆,也能完成任务。

  同时 PaLM-E 通过分析来自机器人摄像头的数据来实现对高级命令的执行,而无需对场景进行预处理。这消除了人类对数据进行预处理或注释的需要,并允许更自主的机器人控制。

  SAM 证明,多种多样的分割任务是可以被一个通用大模型涵盖的。SAM 做到的分割切并不是 CV大模型的终点,我们期待一个模型可以无监督完成分割、检测、识别、跟踪等所有 CV 任务,届时视觉大模型应用会得到极大发展。

  目前的机器人的应用基础是代码,工程师需要经常编写代码和规范来控制机器人的行为,这个过程缓慢、昂贵且低效,使用场景有限。ChatGPT 带来一种新的机器人应用范例通过大型语言模型(LLM)将人的语言快速转换为代码。在这种情境下,人们不需要学习复杂的编程语言或机器人系统的详细信息,就可以控制机器人来完成各种任务,更轻松的与机器人互动。

  目前实验已经能够通过给 ChatGPT的对话框输入指令,让其控制机器人在房间中找到“健康饮料”“有糖和红色标志的东西”(可乐),以及一面供无人机的镜子。

  UC Berkeley、波兰华沙大学联合谷歌机器人团队发表论文《LM-Nav:具有大型预训练语言、视觉和动作模型的机器人导航系统》,该模型结合了三种预训练模型,从而无需用户注释即可执行自然语言指令。

  其中,大语言模型(LLM)用于完成自然语言处理的任务;视觉和语言模型(VLM )将图像和文本信息进行关联,即用户指令和机器人视觉感知的外部环境进行关联;视觉导航模型(VNM)用于从其观察到的信息中直接进行导航将图像和将要执行的任务按时间进行关联

  技术层面,我们认为具身智能最先解决的可能是人机交互问题,现有GPT等多模态大语言模型已经开始应用,让机器人听得懂人的语言指令,其次解决机器人的决策能力,即分析、推理、判断等能力,深度学习、神经网络、强化学习等将是机器人重要的学习手段,最后解决机器人的执行能力,让机器人处理现实中的复杂任务。

  考虑到降本周期、应用难度、市场接受度等因素,我们认为最先应用的落地的可能是价格不敏感的、应用难度较低、市场接受度较高的机器人类型,排序如下:

  接待机器人、迎宾机器人、服务机器人、导购机器人等,商用场景的价格敏感度较低,应用场景简单,市场接受度高,或成为最先落地的场景;

  电力巡检类操作类机器人、轨道交通的检修机器人、矿山里的机器人、农业机器人、建筑机器人等,此类环境危险恶劣,对机器人的需求度高价格不敏感;

  家务机器人、陪伴机器人等,toC 场景的价格敏感度较高,并且家庭是非结构化环境,外部环境和任务较为复杂,因此落地进度或慢于toB 场景;

  人形机器人具有最完善的具身智能,能够集成各项人工智能技术,也是最为通用的机器人类型,潜在应用空间最为广阔,或成为机器人的终极形态。

  具身智能通俗地讲就是CV+Robotics,任务包括visual navigation、visual language navigation、等。没记错的话这个词是几年前李飞飞提的,但在机器人届并不认可。不然搞slam的人无端端地被换了个研究领域,这挺扯的。

  所谓具身智能机器人,即具有主动性的第一人称智能,其本质上是可与环境交互感知,能自主规划、决策、行动,具有执行能力的机器人。其核心是能听到人类语言,然后分解任务,规划子任务,移动中识别物体,与环境交互,最终完成相应任务。具身智能具有支持感知和运动的物理身体,可以进行主动式感知,也可以执行物理任务,没有非具身智能的诸多局限。更重要的是,具身智能强调“感知-行动回路”(perception-action loop)的重要性,即感受世界、对世界进行建模、进而采取行动、进行验证并调整模型的过程;这一过程正是“纸上得来终觉浅,绝知此事要躬行”,与我们人类的学习和认知过程一致。虽然以现今的技术,通过与环境的互动以第一视角得到的数据不够稳定,但这种类似于人类的自我中心感知中学习,从视觉、语言和推理到一个人工具象(Artificial Embodiment),可以帮助解决更多真实问题。具身智能相比上一代传统AI视觉机器人,更具有泛化性,较适合重交互性、可自适应的场景。

  具身智能的本质是智能体具备和环境交互感知,自主规划、决策、行动、执行能力;通过规划决策(大脑)、运动控制(小脑)、主控系统、主干结构及零部件的组合达成这一目标。

  具身智能机器人的“大脑”负责人机交互,能通过视觉在语义层面理解场景(例如video-question answering),理解long-horizon任务,对任务进行分解以及规划,负责高层次的决策。近年来大模型的迅速发展对“大脑”有了长足的促进。“大脑”不太存在数据的匮乏问题,因为大部分能力可以从已有人类数据中习得(如语言数据),长期发展严重依赖于大模型的进展,尤其是多模态大模型。

  · RT-1(Robotic Transformer 1):建立在Transformer架构上的35M参数网络,从不同的感官输入(视觉、文本)中生成简单指令,只能执行拿起、放下、向左、向右等基本指令;模型中没有思维链,也不具备推理能力。该模型是一个多任务模型,对机器人的输入和输出动作(如摄像头图像、任务指令和电机命令)进行标记化,以便在运行时进行高效推理,从而实现实时控制。

  · RT-2(Robotic Transformer 2):RT-2 是建立在 VLM的基础上的视觉-语言-动作VLA模型(Vision-Language-Action),该模型是端到端end to end的集成解决方案,它能够看懂从未见过的物体,理解人类的复杂指令,中间不再需要将其转化成简单指令,通过自然语言就可得到最终的 Action;RT-2 不输出中间过程的Hard decision,这是end to end系统与 Pipeline 机器学习系统的最大区别。RT-2 通过知识迁移可以先让模型在网上学习大量知识,然后将这些知识与视觉模型对齐,机器人模型可以理解并处理在训练数据里没见过的新对象、新环境和新背景,并非视觉或机器人本身的“涌现”,而是多模态大模型的“涌现”。RT-2还具备多步推理能力,可以完成二阶甚至高阶逻辑。

  · RT-X:构建多样化数据集是训练通用模型的关键,DeepMind与33家学术研究机构汇集了22种不同机器人类型的数据,涵盖100万个片段,展示了机器人500多项技能和15万项任务表现,创建Open X-Embodiment数据集,这是目前最全面的机器人数据集。利用该数据集,在RT-1和RT-2模型上训练出能力更强的RT-1-X和RT-2-X。RT-1-X的成功率提升了50%,RT-2-X无障碍解锁新技能,实现了RT-2以前无法实现的技能,例如对空间的更好理解。

  · PaLM-E:PaLM-E的理念是训练编码器,将各种输入转换token化成自然词后,嵌入相同的空间;PaLM-E是一个 decoder-only 的 LLM,其训练数据为包含视觉、连续状态估计和文本输入编码的多模式语句。PaLM-E 提供了一种训练通用模型的新范式,它通过一种共同的表示方法将机器人任务和视觉语言任务结合在一起:将图像和文本作为输入,并输出文本让机器人有了大脑,可以将复杂自然语言指令分解为简单指令,然后再去调用 RT-1执行动作;PaLM-E所做的只是自然语言理解以及 Planning 部分的工作,并不涉及机器人动作本身。

  · VoxPoser:可以在真实世界的操纵任务中零样本合成轨迹,对于自由形式语言指令的开放集和对象的开放集都能适用。由于数据对于泛化至关重要,但机器人数据稀缺且昂贵。因此为了避免在标记数据上进行策略训练,VoxPoser 的研究工作中采用 LLM大型语言模型+VLM 视觉-语言模型中提取机会和约束的方法,利用生成的代码来构建 3D 值地图,以供运动规划器使用,用于零样本合成日常操纵任务的轨迹,从而实现在真实世界中的零样本机器人操纵。

  •算法驱动:“大脑”完全依赖于算法驱动,不依赖硬件,各个巨头皆是基于Transformer为底座进行模型研发

  •基于VLM(Visual-Language Model)理解信息:具身智能大脑的决策感知体系和人类相似,都是基于图片转文本,再Token化理解。现阶段的主要难点在于

  •较优的泛化能力:在开放环境下,搭载Transformer的具身智能相较rule-base算法具有一定程度的多场景任务泛化能力

  综上,具身智能机器人“大脑”在某种程度上和自动驾驶相似,在开放场景和路径规划上具有一定的迁移性。大模型的发展对具身智能的大脑起到了长足的影响,具身智能机器人“大脑”的长远发展依赖于大模型,尤其是多模态大模型。核心技术难点为算法的开发,应重点关注具有算法领先性的公司。

  小脑是具身智能运动控制的核心(把“大脑”对语义信息的理解转化为动作),具体任务包括状态分析、全身运动控制及轨迹优化等。“三岁小孩可以做到的运动控制以及对物体的操作”,此类数据极其匮乏,大模型能够帮助解决的有限,是技术上较大的bottleneck。

  ·模型预测控制(Model Predictive Control):通过预测未来系统行为来做出决策,在每个时间步骤中解决一个最优化问题,以寻找控制输入,以最小化成本并满足约束。MPC需要系统模型、成本函数、预测时间段、约束和反馈来运作,预测了未来会发生什么事情,设定了机器人的活动目标,使得WBC不会将全部精力发在保持平衡上,而是去思考如何完成MPC既定的指令,在一定程度上加大了机器人的实用性,而不是仅能平衡的走路。以四足为例,由于利用MPC预测了未来一个预测时间步长的状态与控制序列,使得四足在切换至欠驱动状态前能够提前给出控制量,减缓欠驱动状态下的系统的不稳定性,通过优化得出最佳地面接触力作为控制量,使得在欠驱动状态下与地面的短时接触中减少了接触模态的干扰,增强了四足的稳定性。

  ·全身控制(Whole Body Control):WBC的关键思想是将机器人的各个部分(例如手臂、腿、身体等)协调在一起,以实现整体任务,同时通过协调机器人各部分、生成轨迹、利用传感器反馈,调整和优化控制策略以实现整体运动和任务。WBC是一个综合地机器人控制任务系统,可以依据不同的意义分解成不同的子任务,并根据重要程度划分优先级,使得机器人能够在稳定的基础上完成各类跟踪任务。而WBC最大的问题在于绝大多数情况下会将身体姿态设为最优先的任务,故应用在人形机器人上可能会出现机器人一直弯腰走路以保持平衡,或因为要保持身体平衡而无法精确完成任务等问题。

  ·强化学习(Reinforcement Learning):让智能体从环境中获取一种状态,由智能体进行决策,对环境作出一种行为,再由环境反馈奖励信号给智能体,透过多次的上述过程,智能体由过往的经历学习获得的奖励信号最佳的行为。以游戏为例,如果在游戏中采取某种策略可以取得较高的得分,那么就进一步强化这种策略,以期继续取得较好的结果;通过激励具身智能体在模拟器中试错提升其能力。强化学习并非全能,在模拟器中无法有效模拟摩檫力、存在穿模等问题,和真实世界有差距(sim-to-real gap),sample efficiency且泛化性有限

  ·DCM - Divergent Component of Motion:模型将机器人的动作分解为多个分量,然后通过控制位置、速度、加速度和力矩等分量来实现所需的整体动作,可以使机器人实现平稳运动和提升适应性

  ·EKF(Extended Kalman Filter):EKF是一种递归贝叶斯滤波器,结合了传感器测量和动态系统模型,以随时间估算系统的状态,主要用于多传感器融合。它通常用于机器人领域的任务,如同时定位与地图构建(SLAM)或跟踪移动机器人的位置和方向。

  现时,Manipulation领域由于非结构化环境导致机器人部署十分困难,主要难点集中在数据匮乏(locomotion领域的数据可以相对较好通过仿真环境获得),故通过数据来源来总结最近技术的进展。

  o 近年得益于NVIDIA对于仿真环境的GPU加速以及对于Omniverse的开发投入,对于高维控制任务例如灵巧手、机器狗推动尤为巨大

  o 缺点:物理仿真难以真实(有sim-to-real难点)、强化学习算法需要针对每个任务单独调节(前期需较大工程量)

  o 此类相对广泛,但同一特点是数据不包含机器人可用的action,因此也可以理解为passive data,模态也较为广泛,但主要为视觉以及语言数据。整体方向分为两条线,一条是从视频数据进行学习,另外一条是利用已经训练好的大模型进行学习。

  •短期算法是壁垒,但依赖于硬件:小脑运动控制的核心也在算法,但短期内较难与硬件拆分开;算法高度依赖硬件的形态&采集数据的维度,算法只有适配硬件才能更好发挥效果

  •硬件无长期壁垒:运动控制的算法核心会逐步向计算控制模组固化亿博,逐步通过轻量化编程可在不同硬件本体上实现随插随用亿博。长期来看,硬件壁垒将消失,传统机器人厂商如四大家族/上一代AI工业机器人或将持续受益于产业链上下游协同优势(供应链&销售渠道),在硬件本体上仍具有领先地位

  •数据是长期护城河,是真正的壁垒:具身智能机器人的数据高度依赖硬件本体采集,目前全球在数据采集角度而言,皆处于早期阶段;真正的具身智能机器人的壁垒一定来自于大规模的数据采集,包括多传感器多维度数据采集

  综上,现阶段可重点关注在大小脑算法+硬件运动控制上较为出色的软硬件一体(算法+机器人)玩家,若具备核心通用算法模组能力(可适配不同硬件形态)的玩家是plus,多以科研院校学者主导;中长期重点关注具有规模化数据采集能力,能建立数据壁垒的玩家,这类玩家除领先的科研能力还需具备大规模量产的产品化能力;此外还可以持续关注“送水人”,提供数据采集核心传感器技术服务商、以及第三方数据采集提供商。

  具身智能机器人相比上一代传统AI视觉机器人,更具有泛化性,较适合重交互性、可自适应的场景。就发展趋势而言,有如下猜测:

  -中短期,To B的工业场景落地:例如汽车、3C产线,相比传统的工业机器人,具身机械臂&工具手可进行多工序的复杂装配/协作装配;具身“大脑”有泛化性,故而更容易换线;形态会是轮式底盘+可升降高度机械臂+灵巧手/夹爪/三指;To B的零售分拣货场景,例如小仓库的灵活分拣理货,具身机械臂可以更好的替代人工做泛化性的分拣

  -中期,To B的服务场景落地:零售(分拣、理货)、酒店&餐厅(收餐、递送)、清洁(非平面操作清洁)、巡检(办公楼);形态会是现有商用机器人形态+机械臂+灵巧手/夹子/三指

  -远期,To C服务场景落地:To C场景首先落地大概率是情感交互需求(儿童娱乐、老人看护、成人陪伴),操作需求(家用清洁&收纳等)落地时间会非常远;形态可能是轮式亦或是人型双足(类人形态更利于情感交互)

Copyright © 2012-2023 亿博(yibo)体育官网入口app - ios/安卓通用版下载 版权所有 Powered by EyouCms         HTML地图 XML地图京ICP备17068576号-1

x
现在留言,无需等待!

收到你的留言,我们将第一时间与你取得联系