理想汽车推送无图导航辅助驾驶 发布全新自动驾驶技术架构

2024-07-17 09:42:37 来源: 上海证券报·中国证券网

  上证报中国证券网讯(记者 俞立严)理想汽车在2024智能驾驶夏季发布会宣布于2024年7月内向理想AD Max用户推送“全国都能开”的无图NOA(导航辅助驾驶),并于7月内推送全自动AES(自动紧急转向)和全方位低速AEB(自动紧急制动)。同时,理想汽车发布了基于端到端模型、VLM视觉语言模型和世界模型的全新自动驾驶技术架构,并开启新架构的早鸟计划。

  理想汽车无图NOA(导航辅助驾驶)功能显示

  理想汽车产品部高级副总裁范皓宇表示:“从2024年5月推送首批千名体验用户,到6月将体验用户规模扩展至万人以上,理想汽车已经在全国各地积累了超百万公里的无图NOA行驶里程。无图NOA全量推送后,24万名理想ADMax车主都将用上当前国内领先的智能驾驶产品。”

  理想汽车智能驾驶研发副总裁郎咸朋表示:“从2021年启动全栈自研,到发布全新的自动驾驶技术架构,理想汽车的自动驾驶研发从未停止探索的脚步。理想汽车结合端到端模型和VLM视觉语言模型,带来了业界首个在车端部署双系统的方案,也首次将VLM视觉语言模型成功部署在车端芯片上。这套业内领先的全新架构是自动驾驶领域里程碑式的技术突破。”

  智能驾驶产品方面,理想无图NOA不再依赖高精地图或先验信息,在全国范围内的导航覆盖区域均可使用,并借助时空联合规划能力带来更丝滑的绕行体验。无图NOA也具备超远视距导航选路能力,在复杂路口依然可以顺畅通行。同时,无图NOA充分考虑用户心理安全边界,用分米级微操带来默契安心的智驾体验。此外,即将推送的AES功能可以实现不依赖人辅助扭力的全自动触发,规避更多高危事故风险。全方位低速AEB则再次拓展主动安全风险场景,有效减少低速挪车场景的高频剐蹭事故发生。

  自动驾驶技术方面,新架构由端到端模型、VLM视觉语言模型和世界模型共同构成。端到端模型用于处理常规的驾驶行为,从传感器输入到行驶轨迹输出只经过一个模型,信息传递、推理计算和模型迭代更高效,驾驶行为更拟人。VLM视觉语言模型具备强大的逻辑思考能力,可以理解复杂路况、导航地图和交通规则,应对高难度的未知场景。同时,自动驾驶系统将在基于世界模型构建的虚拟环境中进行能力学习和测试。世界模型结合重建和生成两种路径,构建的测试场景既符合真实规律,也兼具优秀的泛化能力。

关注同花顺财经(ths518),获取更多机会

0

+1
  • 深圳华强
  • 四川长虹
  • 熙菱信息
  • 优博讯
  • 共进股份
  • 常山北明
  • 中电港
  • 力源信息
  • 代码|股票名称 最新 涨跌幅