随着座舱屏幕数量和算力趋近用户感知上限,智能座舱的竞争焦点正由硬件堆叠转向智能体验。真正的变革在于座舱系统能否成为贴心伙伴——不仅能听懂指令,更能理解意图;不仅能识别环境,更能洞察场景;不仅能执行操作,更具情感共鸣与主动服务能力,而这正是中科创达深耕智能座舱领域的核心探索方向。
NVIDIA TensorRT Edge-LLM是专为边缘端大模型部署打造的轻量级推理框架,面向智能汽车等实时端侧应用场景。中科创达凭借深厚的智能汽车操作系统及AI技术,敏锐把握这一技术趋势,将该框架作为核心底层依托,赋能座舱AI的本地化落地。
NVIDIA在GPU计算领域深耕多年,依托CUDA、TensorRT等核心技术构建了成熟的AI开发生态,已成为业界事实标准。此次开源TensorRT Edge-LLM,正是将这一生态优势向边缘端延伸的重要举措,更精准契合了智能座舱从硬件堆叠到AI体验升级的行业需求。中科创达作为NVIDIA的重要合作伙伴,正借助这一开源技术红利,将NVIDIA的标准化技术底座与自身的车规级AIOS深度融合,为车企打造高水准智能座舱提供标准化、高可靠的一体化技术解决方案。
中科创达的创新实践基于NVIDIA TensorRT Edge-LLM的多模态AI服务架构
TensorRT Edge-LLM为车载边缘AI提供了高性能、轻量化、纯C++的推理运行时,是构建车规级推理系统的重要基础。基于该运行时,中科创达进一步构建了面向座舱业务的多模态AI服务架构,将底层推理能力封装为可调度、可扩展的系统服务。

该架构具有统一的AI服务接口、支持跨SoC平台的快速适配、面向业务负载的推理任务调度和优化的特点。
案例A:重构AI座舱交互基于NVIDIA DRIVE AGX Orin的端侧算力与优化视觉大模型融合实践
基于DRIVE Orin平台,中科创达与某头部车企携手,成功打造并全球首发了新一代AI座舱。其核心成果在于:充分利用DRIVE Orin平台的极致 AI 算力,深度融合经中科创达深度优化的本地 Qwen2.5-VL-7B 视觉大模型,真正兑现了“AI座舱”的感知与决策能力,并将关键AI场景的端到端推理延迟降至业界领先水平,为用户带来颠覆性的瞬时响应体验。
案例B:面向下一代车载自然交互的端侧大模型记忆实践
中科创达与某全球头部车企合作的Innovation Project 中,在车规级高性能 AI 算力底座上,部署并深度优化了Qwen3-VL-4B视觉语言模型,使其满足车载环境的苛刻要求。基于此,成功实现了“长聆听”(Long-Context Listening)与“端侧主动记忆”(On-Device Proactive Memory)两大原型功能,为探索无界面的自然交互奠定了基础。
核心价值
面向未来,双方将合作聚焦于三个维度:基于量产数据和用户反馈持续优化 DRIVE平台上的性能表现;共同开发支持个性化服务与座舱AI Agent框架;为车企提供从模型选型、量化优化到Agent部署集成的完整工具链与参考框架,助力打造可持续进化的AI定义座舱。中科创达非常期待通过NVIDIA开放的底层能力与中科创达成熟的集成经验,与更多开发者共同创建创新可靠的智能汽车软件生态,真正实现从功能定义到AI定义的范式变革。
