一、从LLM到VLM再到VLA,谷歌正式发布RT-2模型:通用人工智能的出现赋予了人形机器人存在的意义,#而当前机器人商用的核心矛盾是大模型带来的通用性尚未满足实际生产生活中需要的准确性!这需要更高层次的模型去不断完善。谷歌deep mind本次更新的VLA(Vision Language Model)模型打通了语言、视觉、动作三个层次的控制,语言和感官(包括视觉、触觉等)将成为人和机器人交互的输入信息,机器人的动作则是这种交互方式输出的结果。
二、AI模型代表机器人大脑,大脑对视觉(V)和语言(L)等信息进行处理形成指令,通过驱动控制方案转换成电流对各关节执行器进行控制,从而形成一系列动作(A)。所以从VLM到VLA的核心增量就是动作(A)的控制,#这一跨越需要更好的驱动控制方案配合,正如同大脑和小脑以及中枢神经的配合才能呈现更灵活的身体!在机器人执行任务时,算法会总结出一系列最省功耗的运动形式集成在驱动方案中,形成类似人的“肌肉记忆”,提升机器人运动时的身体协调能力。关注驱动芯片和驱动器环节。相关标的:峰岹科技、麦格米特、拓邦股份。
三、投资建议:(1)执行器:三花智控、拓普集团、鸣志电器、绿的谐波、双环传动、金力永磁、鼎智科技、五洲新春、步科股份;(2)传感器:柯力传感、汉威科技、奥比中光;(3)驱动控制:峰岹科技、麦格米特、拓邦股份