


凤凰网汽车原创 “座舱生态不是简单的把手机应用搬到车上,如果没有跟车相结合,就不会带来这么大的影响力和创新力。” 4月25日,在鸿蒙座舱生态伙伴论坛现场,华为智能汽车解决方案BU CTO卞红林的判断为整场活动定下基调。
这句看似平淡的表述背后,是一个正在被行业验证的事实:智能座舱的竞争,已经从“拼屏幕大小、拼应用数量”的浅层内卷,进入到“拼AI深度、拼感知能力、拼生态协同”的硬核阶段。
而鸿蒙座舱HarmonySpace 6的发布,让外界看到华为亮出了两张颇具杀伤力的底牌:一个有温度、能聊天的AI伙伴,以及一套能“看心跳、会预警”的多模态感知系统。
当AI学会“聊天” 小艺从一问一答变成全场景出行伙伴
“你怎么跟它聊都聊不死。”华为智能座舱领域总经理金永福这样描述全新小艺的聊天能力。他分享了一个耐人寻味细节:前几天,一位日本客户上车,聊着聊着突然问能不能听懂英语,“我发现它的英文讲得也挺溜的。”
这并非简单的多语言升级,而是底层架构的根本性变革。全新小艺智能体是首个行业全场景跨域交互的座舱智能体。它基于MoLA 2.0架构,采用模仿人类“大脑判断+小脑执行”的协同运作机制,核心突破在于三点:跨域理解、并行执行、类人聊天。
具体来看,MolA 2.0架构将系统分为三个层级,System Agent作为“大脑”部署了千亿级端到端大模型,负责全局性的模糊语义理解。用户一句话里混杂了导航、控车、闲聊意图时,“大脑”负责判断哪部分该导航模块执行、哪部分该控车响应、哪部分只是随口聊天。
垂域Agent作为小脑,在导航、控车、聊天等专属领域的智能体各自精进,在专属领域例如导航或控车,“小脑”自己可以完成工作;需要大脑判断到底该“寻路”还是“闲聊”的时候,大脑才参与进来,把协作任务推给不同的“小脑”。
用户不必遵循“先退出导航、再唤醒,再说开空调”的机械流程,一句“前面还有多远,帮我把空调开到24度,再放一首周杰伦的歌”就能同时出发导航、车控、娱乐三个领域同步执行,凭借MoLA 2.0的中控调度,导航、控车、娱乐、聊天等跨域需求通过System Agent大脑精准判断并将任务发派给各个垂域Agent执行,这正是金永福眼中AI的核心能力。
同时,全新小艺智能体对模糊地点描述的理解能力也更贴近人类直觉,比如“我想去《喜欢您来》汽车博物馆”、“找个适合带孩子吃饭,最好能看熊猫的地方”等等,这些包含俗称、行为意图、多重条件的模糊表达,小艺也能通过聊天逐步明确需求并导航定位。
这种“混着说、都能懂”的能力,让座舱AI从“工具”进化为“伙伴”。小艺不再是等待指令的数字仆人,而是一个能听懂模糊地点描述、能陪聊八卦讲历史、能感知语气调整回应方式的出行伴侣。
能“看心跳”的感知系统:用户安全不止是碰撞和AEB测试
如果说小艺智能体解决的是“陪伴”问题,那么HarmonySpace 6首发的舱内AI多模态感知系统(AMS),解决的就是“守护”问题,这是传统座舱几乎不曾触及的层面。
“自动驾驶发展的好,是因为舱外有各种传感器—毫米波、激光雷达、摄像头来识别物理世界。但车内只有一个耳朵,只能听到声音,没有眼睛,更没有雷达。对车里的人判断是做不好的。”金永福形象的解释了AMS诞生的逻辑。
这套系统被称为“行业唯一的三合一舱内AI多模态感知系统”,融合了800万像素RGB摄像头、200万像素红外摄像头以及高精度星闪传感器。它不仅能做常规的人脸识别、手势动作捕捉,更关键的是:它能捕捉人体和宠物的生命体征,实现在位监测、肢体动作识别及高清成像。
这意味着什么?几个事关安全的场景足以说明它的价值:
儿童/宠物遗留在车内:当车辆锁闭后,系统检测到后排仍有微弱呼吸,会立即通过车主APP、语音提醒等多渠道报警,直接回应了每年夏季频发的悲剧性隐患。金永福特意提到,星闪传感器能判断“躲在座椅后面的小朋友”,这是传统座椅传感器无法覆盖的盲区。
驾驶者疲劳与状态感知:通过对驾驶员呼吸节律、坐姿变化的持续监测,系统能判断疲劳状态并主动预警。这种感知颗粒度远超方向盘检测,且覆盖所有乘员。
主动防夹与危险干预:随着零重力座椅等复杂座椅形态的普及,防夹成为刚需。AMS能精准判断人体的实际位置,为电动座椅、车窗等机构提供安全保障,同时对“孩子把头手伸出窗外”等危险动作实时识别。
卞红林在开场致辞中提到了一个更宏观的判断:“未来随着智能辅助驾驶技术的进一步发展,必将在整个车内的空间带来巨大变化。人在车里会有很多时间办公、娱乐、休息,这方面的需求会被放大。”
当人在车内的行为模式发生根本变化时,舱内感知的重要性将不亚于智驾系统的环境感知能力。
例如,副驾乘客不再是“领航员”而是“观影者”,后排不止是“乘坐区”而是“休息舱”,当智驾能力的升级推动智能座舱空间重构的趋势即将到来,AMS系统提前布设的舱内感知,也预示着未来的智能汽车的进化方向不仅要能“看路”,还要能“看人”。
比技术更值得关注的,是生态的打开方式
技术之外,这场论坛传递的另一个信号是生态策略的升级。
金永福正式宣布开放Agent平台,支持三种第三方接入方式:A2A原生对接、集成Agent能力的APP对接、以及GUI Agent虚拟操控。
黄双喜在现场透露,爱奇艺计划在第三季度推出行业首个长视频座舱Agent,支持语音搜索模糊表达、场景化推荐、甚至观影时的剧情互动陪伴。
钮一波展示了支付宝“停车缴费全程无需手动”的闭环服务,背后接入全国40多万数字化停车场。其车载AI付已支持扫脸、声纹等多种方式。
珞博智能带来的AI陪伴机器人“哈蒙蒙”,则以一种“软萌”的方式切入情感赛道——毛绒外观、硅胶可捏小手、趴在屏幕上的偷感姿态,定位是小艺的“逗哏”搭档,专攻情绪价值。
这些布局共同指向金永福反复强调的逻辑:“座舱生态真正的核心不是把手机应用搬上车,而是跟车相结合。”
总结:座舱能力的边界正在重划
回看HarmonySpace 6的七大竞争力——流程可靠安全、互联互通、高端精致、小艺智能体、极致影音、车内外交互、全场景生态——看似各自独立,实则有清晰的内在逻辑:
以流畅可靠和隐私安全为底座,这是汽车相关场景的绝对红线;以互联互通和全场景生态为骨架,打通“人-车-家”的壁垒;再以小艺智能体和AMS舱内AI多模态感知系统为“大脑”与“感官”,让座舱首次具备了类人的感知、理解与交互能力;而极致影音和高端精致设计,则在体验层面让投入被用户真实感知。
今天智能座舱的用户需求,早已超越“点击应用、获取服务”的层级。随着智能驾驶技术的不断演进,驾驶者逐渐被解放,人在车内的时间也将被重新定义。
它可能是通勤时的独处、是全家或好友同行的共处、是泊车后的休憩空间……座舱被寄予的期待,已经远远不止是执行指令。它需要理解用户的情绪、预判潜在的风险,在不同场景之间自由切换,让每一次出行成为被看见、被理解、被关爱的体验。
正如论坛主题所言的“鸿蒙万象 美好同程”,HarmonySpace 6能否将“美好”真正兑现到每一次出行中,需要技术、也需要时间。但在2026年春天,它为行业呈现了一幅可感知的蓝图:一个能聊天、能看护、能陪伴的座舱,正在从概念驶向现实。
“特别声明:以上作品内容(包括在内的视频、图片或音频)为凤凰网旗下自媒体平台“大风号”用户上传并发布,本平台仅提供信息存储空间服务。
Notice: The content above (including the videos, pictures and audios if any) is uploaded and posted by the user of Dafeng Hao, which is a social media platform and merely provides information storage space services.”