“在 AI 技术生态上,生成式大模型已成为自动驾驶系统进化的关键,基于 Transformer 大模型训练的感知、认知算法,将逐步在车端进行落地部署。”
在最新的毫末 AI DAY 上,毫末智行董事长张凯给出了这一判断,并基于这一判断发布业内首个自动驾驶生成式大模型 DriveGPT,中文名“雪湖·海若”。
自去年年末以来, GPT 的热度一直高涨不下,尤其是 ChatGPT 的大火更是引发全行业关注。此前,GPT 多应用于文本生成、代码生成或是搜索领域,但由于缺乏数据支撑,GPT 在自动驾驶行业这一垂类的应用并不高。
截至业内也仅有毫末一家率先将 GPT 应用到自动驾驶领域,即 DriveGPT 雪湖·海若。 DriveGPT 能为智能驾驶做什么?
GPT 的全称是生成式预训练 Transformer 模型,本质上是在求解下一个词出现的概率。即根据输入的前序文本,模型会输出可能出现的下一个字的几率分布,再从中取样出几率较高的字。如此循环往复,直到完整地写完下文。
据官方介绍,DriveGPT 雪湖·海若的底层模型采用 GPT(Generative Pre-trained Transformer)生成式预训练大模型,与 ChatGPT 使用自然语言进行输入与输出不同,DriveGPT 输入是感知融合后的文本序列,输出是自动驾驶场景文本序列,即将自动驾驶场景 Token 化,形成“Drive Language”。 Drive Language 基于毫末的 CSS 场景库理论,将驾驶空间进行离散化处理,每一个 Token 都表征场景的一小部分,相当于许多个可能在未来出现的平行宇宙,最终完成自车的决策规控、障碍物预测以及决策逻辑链的输出等任务。截至毫末从真实驾驶场景库中提取的token序列,规模达到 50 万个。
有了 Drive Language,毫末就可以用人类驾驶的数据对模型进行预训练。 在预训练阶段通过引入量产驾驶数据,训练初始模型,再通过引入驾驶接管 Clips 数据完成反馈模型(Reward Model)的训练,然后再通过强化学习的方式,使用反馈模型去不断优化迭代初始模型,形成对自动驾驶认知决策模型的持续优化。
DriveGPT 雪湖·海若会根据输入端的提示语以及毫末 CSS 自动驾驶场景库的决策样本去训练模型,让模型学习推理关系,从而将完整驾驶策略拆分为自动驾驶场景的动态识别过程,完成可理解、可解释的推理逻辑链生成。
毫末智行 CEO 顾维灏表示,毫末 DriveGPT 雪湖·海若通过引入驾驶数据建立 RLHF(人类反馈强化学习)技术,对自动驾驶认知决策模型进行持续优化。据毫末方面的说法,在 RLHF 的加持下,Hard Case 通过率提升了 48%。毫末 DriveGPT 雪湖·海若实现了模型架构与参数规模的升级,参数规模达 1200 亿,预训练阶段引入 4000 万公里量产车驾驶数据,RLHF 阶段引入 5 万段人工精选的困难场景接管 Clips。
毫末方面表示,DriveGPT雪湖·海若现阶段主要用于解决自动驾驶的认知决策问题。“在感知到了周围的世界之后,怎么样把车开得更安全,把车开得更顺滑,怎么样跟周围的交通参与者互相博弈。”顾维灏说道。
毫末判断,DriveGPT雪湖·海若还将在城市 NOH、智能陪练、驾驶捷径推荐、脱困场景中得到应用,最终目标是要实现端到端自动驾驶
毫末在 AI DAY 上宣布,DriveGPT雪湖·海若将在即将量产上市的新摩卡DHT-PHEV首发。
毫末基于GPT技术的探索,毫末衍生出服务于业界的能力和新的商业模式,即向业界开放DriveGPT的能力,4月11日开放单帧自动标注服务,可降低标注成本,之后还将陆续开放驾驶行为验证、困难场景脱困等功能。 DriveGPT 背后的支持
DriveGPT 雪湖·海若的训练和落地,离不开算力的支持。
今年 1 月,毫末和火山引擎共同发布了其自建智算中心“毫末雪湖·绿洲 MANA OASIS”。毫末表示,OASIS 的算力高达 67 亿亿次/秒,存储带宽 2T /秒,通信带宽达到 800G /秒。
只有算力还不够,还需要训练和推理框架的支持,由此毫末进行了三方面升级——
一是训练稳定性优化。毫末在大模型训练框架的基础上,与火山引擎共同建立了全套训练保障框架,可以通过集群调度器实时获取服务器异常,将异常节点从训练 Task group 中删除,再结合CheckPoint 功能,利用 VePFS 高性能存储和 RDMA 网络高效分发,以保障 DriveGPT雪湖·海若大模型训练的稳定性。 二是弹性调度资源的升级。毫末构建了一个大模型持续学习系统,数据以动态数据流的形式结合增量学习,持续不断地将量产回传和筛选的存量数据,传入认知和感知 Pretrain 大模型。
三是吞吐效率的升级。在 Transformer 的大矩阵计算上,毫末通过对内外循环的数据拆分,尽量保持数据在 SRAM 中提升计算的效率;在传统的训练框架中,通过引入火山引擎提供的 Logo核心算子库实现融合,端到端吞吐提升 84%。
毫末表示,自动驾驶数据智能体系MANA架构已迎来全线升级。截至2023年4月, MANA 学习时长超 56 万小时,相当于人类司机 6.8 万年。
在 MANA 发布迭代一年后,在本次 AI DAY 也迎来升级,具体包括:MANA 感知和认知相关大模型能力统一整合到 DriveGPT 雪湖·海若中;MANA计算基础服务针对大模型训练在参数规模、稳定性和效率方面做了专项优化,并集成到 OASIS 中;第三,增加了使用NeRF技术的数据合成服务,降低 Corner Case 数据的获取成本;针对多种芯片和多种车型的快速交付难题优化了异构部署工具和车型适配工具。
在视觉感知能力上,毫末对视觉自监督大模型做了一次架构升级,将预测环境的三维结构,速度场和纹理分布融合到一个训练目标里面,强迫模型练好内功,使其能从容应对各种具体任务。目前毫末视觉自监督大模型的数据集超过 400 万 Clips,感知性能提升 20%。顾维灏举例称,在泊车场景下,毫末将鱼眼相机也引入到视觉 BEV 的感知框架当中,鱼眼图像通过 2D backbone 提取出视觉特征,经过空间转换映射至 BEV 空间,并在该空间下对于障碍物的轮廓边界进行识别和测量,目前可做到在 15 米范围内达测量精度 30cm,2 米内精度高于 10cm。
除了用自监督大模型练内功,毫末还公开了在纯视觉三维重建方面的一些进展。
毫末对 NeRF 做了升级,将视觉感知结果转化为可用于 BEV 模型训练的带 3D 标注的真值数据,目前可以做到重建误差小于 10cm。
单趟重建有时会受到遮挡的影响,不能完整地还原三维空间,因此毫末尝试了多趟重建的方式——即将同一地点不同车辆在不同时间经过的数据合并做多趟重建,由此提升场景还原度,重建效率可提升 5 倍。
重建之后,MANA 可以编辑场景合成难以收集的 Corner Case。毫末表示,近期训练了一个可以在静态场景做虚拟动态物体编辑的模型,可以控制虚拟物体在场景中按照设定的轨迹运动,由此合成各种 hardcase,例如近距离回车,行人、电动车交互行为等。
2023年将是智驾产品大考之年
“2023 年智驾产品进入全线爆发期。”毫末智行董事长张凯在活动上表示。
张凯判断,城市导航辅助驾驶产将在 2023 年将围绕量产上车发力,主要玩家的城市导航辅助驾驶产品进入到真实用户覆盖和多城市落地的比拼。
行泊一体和末端物流自动配送产业商业化将成为自动驾驶公司深耕的重点。在乘用车领域,搭载行泊一体功能的智驾产品将迎来前装量产潮;在末端物流自动配送领域,末端物流自动配送车在商超、快递等场景迎来爆发,2023 年将在这些场景实现可持续商业化闭环。在 AI DAY 上,毫末表示其城市 NOH 已在北京、保定、上海等城市开启泛化测试,即将量产上车。张凯表示,到2024 年,毫末城市 NOH 将有序落地 100 城。
一年之内,从三座城市扩张至百城,毫末给出的目标可以说十分激进。
截至毫末三代乘用车产品搭载车型近 20 款,毫末辅助驾驶用户行驶里程突破4000万公里,HPilot2.0 日均里程使用率 12.6%。
毫末智行透露,目前已与 3 家主机厂(包括长城)签署定点合同,相关项目正在交付中。 结合毫末往届 AI DAY 的动态来看,从发布中国首个数据智能体系 MANA,到建设智算中心雪湖·绿洲,再在其基础上训练出参数规模达 1200 亿作为 DriveGPT 雪湖·海若模型,毫末的闭环思维始终贯彻其技术始末,并逐渐形成数据驱动的闭环。
正如毫末所言,2023 年将是智能驾驶冲刺之年、大考之年。这对毫末来说,这也是长久技术布局走向落地应用的关键时期;毕竟,毫末要在 2026 年实现城市 NOH 落地 100 城,这并不是一个简单的事情。
【本文来自易车号作者钛AUTO,版权归作者所有,任何形式转载请联系作者。内容仅代表作者观点,与易车无关】
“在 AI 技术生态上,生成式大模型已成为自动驾驶系统进化的关键,基于 Transformer 大模型训练的感知、认知算法,将逐步在车端进行落地部署。”
在最新的毫末 AI DAY 上,毫末智行董事长张凯给出了这一判断,并基于这一判断发布业内首个自动驾驶生成式大模型 DriveGPT,中文名“雪湖·海若”。
自去年年末以来, GPT 的热度一直高涨不下,尤其是 ChatGPT 的大火更是引发全行业关注。此前,GPT 多应用于文本生成、代码生成或是搜索领域,但由于缺乏数据支撑,GPT 在自动驾驶行业这一垂类的应用并不高。
截至业内也仅有毫末一家率先将 GPT 应用到自动驾驶领域,即 DriveGPT 雪湖·海若。 DriveGPT 能为智能驾驶做什么?
GPT 的全称是生成式预训练 Transformer 模型,本质上是在求解下一个词出现的概率。即根据输入的前序文本,模型会输出可能出现的下一个字的几率分布,再从中取样出几率较高的字。如此循环往复,直到完整地写完下文。
据官方介绍,DriveGPT 雪湖·海若的底层模型采用 GPT(Generative Pre-trained Transformer)生成式预训练大模型,与 ChatGPT 使用自然语言进行输入与输出不同,DriveGPT 输入是感知融合后的文本序列,输出是自动驾驶场景文本序列,即将自动驾驶场景 Token 化,形成“Drive Language”。 Drive Language 基于毫末的 CSS 场景库理论,将驾驶空间进行离散化处理,每一个 Token 都表征场景的一小部分,相当于许多个可能在未来出现的平行宇宙,最终完成自车的决策规控、障碍物预测以及决策逻辑链的输出等任务。截至毫末从真实驾驶场景库中提取的token序列,规模达到 50 万个。
有了 Drive Language,毫末就可以用人类驾驶的数据对模型进行预训练。 在预训练阶段通过引入量产驾驶数据,训练初始模型,再通过引入驾驶接管 Clips 数据完成反馈模型(Reward Model)的训练,然后再通过强化学习的方式,使用反馈模型去不断优化迭代初始模型,形成对自动驾驶认知决策模型的持续优化。
DriveGPT 雪湖·海若会根据输入端的提示语以及毫末 CSS 自动驾驶场景库的决策样本去训练模型,让模型学习推理关系,从而将完整驾驶策略拆分为自动驾驶场景的动态识别过程,完成可理解、可解释的推理逻辑链生成。
毫末智行 CEO 顾维灏表示,毫末 DriveGPT 雪湖·海若通过引入驾驶数据建立 RLHF(人类反馈强化学习)技术,对自动驾驶认知决策模型进行持续优化。据毫末方面的说法,在 RLHF 的加持下,Hard Case 通过率提升了 48%。毫末 DriveGPT 雪湖·海若实现了模型架构与参数规模的升级,参数规模达 1200 亿,预训练阶段引入 4000 万公里量产车驾驶数据,RLHF 阶段引入 5 万段人工精选的困难场景接管 Clips。
毫末方面表示,DriveGPT雪湖·海若现阶段主要用于解决自动驾驶的认知决策问题。“在感知到了周围的世界之后,怎么样把车开得更安全,把车开得更顺滑,怎么样跟周围的交通参与者互相博弈。”顾维灏说道。
毫末判断,DriveGPT雪湖·海若还将在城市 NOH、智能陪练、驾驶捷径推荐、脱困场景中得到应用,最终目标是要实现端到端自动驾驶
毫末在 AI DAY 上宣布,DriveGPT雪湖·海若将在即将量产上市的新摩卡DHT-PHEV首发。
毫末基于GPT技术的探索,毫末衍生出服务于业界的能力和新的商业模式,即向业界开放DriveGPT的能力,4月11日开放单帧自动标注服务,可降低标注成本,之后还将陆续开放驾驶行为验证、困难场景脱困等功能。 DriveGPT 背后的支持
DriveGPT 雪湖·海若的训练和落地,离不开算力的支持。
今年 1 月,毫末和火山引擎共同发布了其自建智算中心“毫末雪湖·绿洲 MANA OASIS”。毫末表示,OASIS 的算力高达 67 亿亿次/秒,存储带宽 2T /秒,通信带宽达到 800G /秒。
只有算力还不够,还需要训练和推理框架的支持,由此毫末进行了三方面升级——
一是训练稳定性优化。毫末在大模型训练框架的基础上,与火山引擎共同建立了全套训练保障框架,可以通过集群调度器实时获取服务器异常,将异常节点从训练 Task group 中删除,再结合CheckPoint 功能,利用 VePFS 高性能存储和 RDMA 网络高效分发,以保障 DriveGPT雪湖·海若大模型训练的稳定性。 二是弹性调度资源的升级。毫末构建了一个大模型持续学习系统,数据以动态数据流的形式结合增量学习,持续不断地将量产回传和筛选的存量数据,传入认知和感知 Pretrain 大模型。
三是吞吐效率的升级。在 Transformer 的大矩阵计算上,毫末通过对内外循环的数据拆分,尽量保持数据在 SRAM 中提升计算的效率;在传统的训练框架中,通过引入火山引擎提供的 Logo核心算子库实现融合,端到端吞吐提升 84%。
毫末表示,自动驾驶数据智能体系MANA架构已迎来全线升级。截至2023年4月, MANA 学习时长超 56 万小时,相当于人类司机 6.8 万年。
在 MANA 发布迭代一年后,在本次 AI DAY 也迎来升级,具体包括:MANA 感知和认知相关大模型能力统一整合到 DriveGPT 雪湖·海若中;MANA计算基础服务针对大模型训练在参数规模、稳定性和效率方面做了专项优化,并集成到 OASIS 中;第三,增加了使用NeRF技术的数据合成服务,降低 Corner Case 数据的获取成本;针对多种芯片和多种车型的快速交付难题优化了异构部署工具和车型适配工具。
在视觉感知能力上,毫末对视觉自监督大模型做了一次架构升级,将预测环境的三维结构,速度场和纹理分布融合到一个训练目标里面,强迫模型练好内功,使其能从容应对各种具体任务。目前毫末视觉自监督大模型的数据集超过 400 万 Clips,感知性能提升 20%。顾维灏举例称,在泊车场景下,毫末将鱼眼相机也引入到视觉 BEV 的感知框架当中,鱼眼图像通过 2D backbone 提取出视觉特征,经过空间转换映射至 BEV 空间,并在该空间下对于障碍物的轮廓边界进行识别和测量,目前可做到在 15 米范围内达测量精度 30cm,2 米内精度高于 10cm。
除了用自监督大模型练内功,毫末还公开了在纯视觉三维重建方面的一些进展。
毫末对 NeRF 做了升级,将视觉感知结果转化为可用于 BEV 模型训练的带 3D 标注的真值数据,目前可以做到重建误差小于 10cm。
单趟重建有时会受到遮挡的影响,不能完整地还原三维空间,因此毫末尝试了多趟重建的方式——即将同一地点不同车辆在不同时间经过的数据合并做多趟重建,由此提升场景还原度,重建效率可提升 5 倍。
重建之后,MANA 可以编辑场景合成难以收集的 Corner Case。毫末表示,近期训练了一个可以在静态场景做虚拟动态物体编辑的模型,可以控制虚拟物体在场景中按照设定的轨迹运动,由此合成各种 hardcase,例如近距离回车,行人、电动车交互行为等。
2023年将是智驾产品大考之年
“2023 年智驾产品进入全线爆发期。”毫末智行董事长张凯在活动上表示。
张凯判断,城市导航辅助驾驶产将在 2023 年将围绕量产上车发力,主要玩家的城市导航辅助驾驶产品进入到真实用户覆盖和多城市落地的比拼。
行泊一体和末端物流自动配送产业商业化将成为自动驾驶公司深耕的重点。在乘用车领域,搭载行泊一体功能的智驾产品将迎来前装量产潮;在末端物流自动配送领域,末端物流自动配送车在商超、快递等场景迎来爆发,2023 年将在这些场景实现可持续商业化闭环。在 AI DAY 上,毫末表示其城市 NOH 已在北京、保定、上海等城市开启泛化测试,即将量产上车。张凯表示,到2024 年,毫末城市 NOH 将有序落地 100 城。
一年之内,从三座城市扩张至百城,毫末给出的目标可以说十分激进。
截至毫末三代乘用车产品搭载车型近 20 款,毫末辅助驾驶用户行驶里程突破4000万公里,HPilot2.0 日均里程使用率 12.6%。
毫末智行透露,目前已与 3 家主机厂(包括长城)签署定点合同,相关项目正在交付中。 结合毫末往届 AI DAY 的动态来看,从发布中国首个数据智能体系 MANA,到建设智算中心雪湖·绿洲,再在其基础上训练出参数规模达 1200 亿作为 DriveGPT 雪湖·海若模型,毫末的闭环思维始终贯彻其技术始末,并逐渐形成数据驱动的闭环。
正如毫末所言,2023 年将是智能驾驶冲刺之年、大考之年。这对毫末来说,这也是长久技术布局走向落地应用的关键时期;毕竟,毫末要在 2026 年实现城市 NOH 落地 100 城,这并不是一个简单的事情。
【本文来自易车号作者钛AUTO,版权归作者所有,任何形式转载请联系作者。内容仅代表作者观点,与易车无关】
ChatGPT是一种基于语言模型的对话系统,其底层逻辑主要包括三个方面:预训练、生成回答和交互。
ChatGPT通过预训练阶段来学习大量的文本数据,其中包括从互联网上收集的对话数据和其他相关的语料库。在预训练过程中,模型通过自监督学习的方式来预测下一个词的概率。这个预训练阶段使得ChatGPT能够对各种语言和主题有一定的理解,同时也能够生成连贯的句子。
在对话生成阶段,ChatGPT将输入的对话历史和问题作为输入,并生成一个输出的回答。对话历史是之前的对话内容,可以包括用户的问题和模型的回答。ChatGPT使用自回归生成的方式,逐个词地生成回答,其中生成的每个词都是基于前面生成的词和输入的对话历史。这个过程使用了Transformer模型的架构,其中包括多层的自注意力机制和前馈神经网络。
ChatGPT的底层逻辑也涉及到与用户的交互。用户通过输入问题来与ChatGPT进行对话。ChatGPT将用户的问题作为输入,并生成回答。这个回答可以通过文本的形式展示给用户,也可以通过声音等形式进行输出。用户可以继续提问,ChatGPT会在每次迭代中利用之前的对话历史来生成新的回答。通过不断的交互,ChatGPT可以提供连贯、有逻辑的对话回答。
ChatGPT的底层逻辑包括预训练、生成回答和交互三个方面。通过预训练,模型学习语言的统计规律和语义知识;生成回答阶段使用自回归的方式根据输入的对话历史生成回答;交互阶段可以与用户进行对话,并通过不断迭代来生成连贯的对话回答。
ChatGPT是一种基于深度学习的自然语言处理模型,它的底层逻辑基于大规模预训练模型和生成式学习方法。
ChatGPT使用了一个庞大的神经网络,称为Transformer模型。该模型包含多个层次的编码器和解码器,用于处理输入和生成输出。编码器负责理解输入文本的语义和上下文,解码器则根据编码器的输出生成响应。
ChatGPT的底层逻辑可以分为两个阶段:预训练和微调。
在预训练阶段,ChatGPT使用大量非监督语料库进行训练。这些语料库包含了互联网上的大量文本数据,例如网页、维基百科等,用于模型的语言模型预测任务。在预训练中,模型学习了丰富的语言知识和概念,并建立了词汇和句子之间的关联。
在微调阶段,ChatGPT使用人工提供的对话数据进行训练。这些对话数据通常由人工编写,模拟真实的对话场景。通过这个过程,模型能够学会如何根据输入生成合理的回答,并根据对话的上下文理解用户的意图。微调阶段的目标是优化模型,使其更好地适应特定的对话任务。
ChatGPT的底层逻辑还与注意力机制相关。注意力机制允许模型在生成回答时关注输入序列中的不同部分,以便更好地理解上下文和生成合适的回复。这种机制使得ChatGPT能够在对话中表现出连贯性和自然性。
ChatGPT的底层逻辑基于大规模预训练语言模型和生成式学习方法,通过模拟对话数据进行微调,并应用注意力机制来生成连贯的回答。
预告了一个多月的文心一言,终于在3月16日揭开面纱,可令人遗憾的是,发布后的效果不仅没能达到预期,还因为李彦宏给大家展示的是提前录好的视频,被网友嘲笑为“ChatPPT”。甚至一向对“新技术”极为包容的资本市场也不买账——文心一言发布会还未结束,百度股价就直线下挫,跌幅一度扩大至10%。“百度股价下跌”的词条也一度登顶微博首页。那么为什么网友会如此失望呢?我们回看了一遍发布会,总结了几个原因。其一,在于技术不够新颖。发布会上展示的文心一言对话模型从内容输出到交互界面,几乎可以称之为ChatGPT的翻版,支持多模态文本生成视频、音频虽然很亮眼,但被提前一晚发布的“GPT-4”抢去了风头。有科技媒体称,文心一言本来对标的是OpenAI在去年11月底发布的ChatGPT(GPT-3.5版本),没想到在发布前夜遇上了实力更强的新版GPT-4,整体的节奏被打乱了。李彦宏也表示,AI可以通过数据积累迭代实现智能升级,未来的潜力还是无穷的。这个逻辑有点儿像车企宣传智能化功能时强调的“OTA”升级,尽管这项功能现在还不完善,但假以时日总能派上用场。其二,在于态度不够诚恳。发布会之所以让人期待,是因为能够实时展示产品的效果,或许为了避免直播事故,百度此次发布采用了录制视频的做法,效果大打折扣。这种操作跟互联网企业刚刚踏入汽车市场的时候颇为相似,当时的热词是“PPT造车”。其三,在于姿态不够优雅。李彦宏在发布会上宣布,已经有超过650家企业将接入文心一言,也用了极大篇幅介绍技术变现和商业合作的价值。但这些技术目前无法在用户层面落地,甚至目前首批内测只开放给B端用户。无论是业内还是网友都普遍认为,百度发布文心一言是想蹭ChatGPT的热度,提前站位AI市场,毕竟目前国内科大讯飞、商汤也都在做相似的产品,百度自然要先声夺人。李彦宏自己也承认,“从我自己在内测过程中体验到的文心一言的能力来说,当前确实不能叫作‘完美’。”之所以选择此时发布,更多是满足市场的需求。这是一种焦虑。面对市场竞争的不确定性,尽管技术可能还不够成熟,但必须先发制人,先占领舆论高点再说。作为中文搜索“一哥”,百度在芯片层(高端芯片昆仑芯)、框架层(飞桨)、模型层(文心预训练大模型)和应用层(产品在诸多场景应用)等技术领域都拥有关键自研技术,可以说是国内最有实力做出与ChatGPT对标产品的企业。从这个意义上说,哪怕文心一言目前的水平遭到嘲笑,但对于正在面临智能电动化转型的车企而言,依然是一根可以尝试的“救命稻草”。因此我们看到,截至已经有包括长安、吉利、岚图、红旗、长城、东风日产、零跑等10余家车企都宣布将在其智能座舱接入文心一言。将于3月18日上市的长安逸达,或将会成为全球首款搭载文心一言的车型。这些企业之所以宣布合作,也是想尽可能完善智能互联领域的生态架构。在严重内卷的智能化赛道里,“人无我有,人有我优”已经成为了公认的竞争法则。但当“活着”成为2023年各行各业发展的主基调,汽车行业各大品牌纷纷加入“价格战”的大背景下,每个企业其实都应该深刻反思一下——在智能驾驶和智能座舱短时间内很难有质的提升的当下,汽车智能化这张牌究竟应该怎么打?跟风在智能化硬件上进行疯狂“内卷”,究竟值不值得?之所以提出这样的问题,是因为在智能电动化的浪潮下,车企或被资本、或被市场裹挟着进入疯狂的内卷中,堆芯片、拼算力、屏幕越做越大,已经成为竞争的“新常态”,但无效内卷带来的是产品陷入同质化,品牌也没有形成自己的“护城河”。过去资本尚且有所偏爱,但百度文心一言发布后股价暴跌的事实在证明,资本对于技术投资已经不像过去那么“上头”。对于车企而言,堆砌硬件不仅需要高昂的成本,也提高了产品售价,微薄的产品利润再加上迫不得已迎战特斯拉而进一步降低的价格底线,让本就亏损的企业“雪上加霜”。在这种竞争态势下,企业必须对市场竞争有清晰的认知,应当明确品牌发展的底层逻辑,找到自己的差异化优势,才能从容地应对市场艰巨的挑战。在“蔚小理”三家头部新势力里,小鹏是最早陷入危机的,去年年度销量目标25万台,最终仅完成了120757台,成为最让人担忧的新势力企业之一。究其原因,不是小鹏在技术上不够创新,而是消费者对于“智能化”这个最大的卖点不太买单。但日前外媒报道,与在中国本土推出的版本相比,小鹏汽车在荷兰、瑞典、丹麦和挪威上市的小鹏G9将少装两个传感器,其中一个传感器是3D激光雷达。小鹏汽车欧洲产品规划负责人Martin Stegelmeier向外媒透露,“取消G9的激光雷达是由于成本问题。激光雷达的成本非常高。在欧洲,我们希望在ADAS(高级驾驶辅助系统)领域处于领先地位,但也必须提供一个有竞争力的价格。如果安装了激光雷达,我们就无法做到这一点。”这既是妥协,更是对市场认知的清醒和进步。对配置的重新规划,证明小鹏汽车已经意识到产品定位的模糊和定价的不合理,必须有所取舍,拿出更有诚意的价格才能在市场拥有立足之地。不过很可惜,目前在国内市场,小鹏似乎依然坚定“智能驾驶”路线不动摇。新上市的小鹏P7i 搭载了第二代智能辅助驾驶系统XNGP,传感器增加了两个激光雷达,智能辅助驾驶芯片上最高搭载了双Orin-X芯片,提供508TOPS高算力。不可否认,相较于小鹏P7,小鹏P7i的价值感再次有了很大的提升,不过这些升级对于用户的实际使用价值感依然是存疑的,能否被用户认可也还是未知数。单从定价上看,小鹏P7i的起步价比特斯拉Model 3还贵2万元,已经失去了部分先机。从媒体的角度看,我们觉得小鹏完全可以推出一个适当简配的入门版降价,以满足更多用车群体的需求,同时增强其市场竞争力。我们并不是唱衰“智能驾驶”,这是未来出行的美好愿景,我们也期待L4、L5级自动驾驶实现的那一天。但我们也应该看到,现阶段任何抛开交通环境和法律法规,只谈技术背景的智能驾驶都是伪命题,不具备现实意义。智能驾驶难以落地、L2无法跨越到L3的根本原因从来不是技术,而是法规、数据甚至人性等等问题的综合作用。特斯拉“刹车门”频发,事故问题至今还未有定论,已经让人们对于智能驾驶的期待降到冰点,在海外市场,高阶智能驾驶Robotaxi陷入了技术难突破,商业化难落地,资本市场难融资的“三难困局”,无人车明星独角兽ArgoAI直接宣告倒闭.....褪下“智能驾驶”的光环后,特斯拉之所以还能保持高销量的原因,一方面是频繁的降价刺激,一方面还有品牌价值加持,但如果长期降价,品牌价值也会因此受损,这其实是恶性循环。此前上市的智己LS7似乎已经“想通了”,前者上市时发布的最低配版本就是阉割了激光雷达的版本,中大型轿车的定位,起步价做到30.98万,在同级中很有竞争力,让业内普遍持乐观态度。这种产品定价的方式虽然很传统,品牌通过差异化优势为车型创造宣传话题,但最终定价依然充分考虑受众需求和消费实力,其实是很实用的,据了解,即将上市的飞凡F7在定价策略上也会给到惊喜。依然有企业死磕“智能驾驶”。比如集度汽车,此前集度CEO夏一平在接受采访时铿锵有力地对记者说,“蔚小理等新势力自动驾驶卖不好是技术能力不行,集度要告诉市场什么是自动驾驶好的体验的标准”。看得出来,夏一平已经深深掌握了当代流量法则——“情绪比内容更重要,如果再加上对立,那就是效果加倍。”我们理解作为后来者,集度需要用出位的言论博流量博关注,但他的言辞的确有着“不知者无谓”的孤勇。技术是否真的强过蔚小理不得而知,但如果事到如今还坚持将品牌核心优势聚焦在虚无缥缈的“智能座舱和智能驾驶”上,集度的前途或将很微妙。除了卷配置,服务和营销也是卷出天际。由特斯拉开创的直营模式,被各家车企所沿用,这就导致新势力要像传统车企一样在研发生产上投入,还要兼任过去“经销商”职责,服务培
【本文来自易车号作者华山论剑,版权归作者所有,任何形式转载请联系作者。内容仅代表作者观点,与易车无关】
分布式操作系统是一种特殊的操作系统,本质上属于多机操作系统,是传统单机操作系统的发展和延伸。它是将一个计算机系统划分为多个独立的计算单元(或者也可称为节点),这些节点被部署到每台计算机上,然后被网络连接起来,并保持着持续的通信状态。在分布式操作系统中,每个节点即可以独立地象单机操作系统一样执行本地的计算任务,也可以相互组合起来,以分布协同的并行方式,执行更大规模的计算任务。从而为用户提供更强的计算能力、更高的可扩展性和冗余容错能力。
一、分布式操作系统的概念
分布式操作系统是将一个计算机系统划分为多个独立的计算单元(或者也可称为节点),这些节点被部署到每台计算机上,然后被网络连接起来,并保持着持续的通信状态。在分布式操作系统中,每个节点即可以独立地象单机操作系统一样执行本地的计算任务,也可以相互组合起来,以分布协同的并行方式,执行更大规模的计算任务。从而为用户提供更强的计算能力、更高的可扩展性和冗余容错能力。分布式操作系统同时还应该保证系统的分布的灵活性、可用性、可管理性和弹性伸缩能力
二、分布式操作系统的特点
一个通用的分布式操作系统应该具备以下一些基本特点:
模块化:分布式操作系统采用模块化的设计思想,将系统划分为多个功能模块,每个模块负责完成特定的任务。这种设计使得系统更加易于维护和升级。
并行处理:分布式操作系统支持多种并行处理模型,如共享内存模型、消息传递模型和客户机/服务器模型等。这些模型可以充分利用多核处理器的性能,提高系统的处理能力。如果把客户机/服务器进一步延伸合起来,则衍生出来一种新型的客户机/集群模型。这是分布式操作系统能够提供强大计算能力的根本原因。
容错能力:分布式操作系统具有较强的容错能力,可以在节点出现故障时自动恢复。这主要依赖于分布式系统中的冗余设计和故障检测与诊断机制。
数据一致性:分布式操作系统需要保证数据在各个节点之间的一致性。这通常通过使用事务、锁和协调器等技术来实现。
资源管理:分布式操作系统需要对系统中的硬件资源进行有效的管理,包括内存、磁盘空间和CPU时间等。这通常通过使用资源调度算法和优先级调度策略等技术来实现。
咱们以LAXCUS分布式为例,对此进行简单的说明。参照上图,在LAXCUS分布式操作系统,系统被分为核心层、业务层、调用层三个维度。核心层由本地核心和分布式框架组成,其中本地核心包括了本地内核和本地Shell,其设计思路类似Unix/Linux,不同之处在于分布式框架,分布式框架是LAXCUS分布式操作系统的重要技术创新,由于它的存在,LAXCUS才可以称之为“分布式操作系统”,包括了多模通信网络、松耦合架构、分布式Shell。其中分布式Shell接受用户的分布式指令(用户指令和系统调度指令),并解析这些分布式指令。LAXCUS的松耦合架构是一项重要的技术创新,在之前的文章多有介绍,比如并行处理能力、容错处理能力、数据一致性、资源管理能力、调度能力,这些技术的组合起来,才能使多机分布协同运行成为可能。 关于LAXCUS分布式操作系统松耦合架构更详细的介绍,请参考相关的文章,本处就不再赘述。多模通信网络则是多种网络通信技术的组合,其中最重要的是一种类似5G网络的MASSIVE MIMO技术,由于它的存在,建立在物理网络基础上的大规模通信、超大规模通信才能得以实现,也是LAXCUS分布式操作系统的核心基础功能之一。
咱们通过模拟LAXCUS分布式操作系统的运行流程,来介绍分布式操作系统的运作逻辑。在LAXCUS分布式的操作系统,客户机是图形桌面,上面运行着各种各位的应用软件,这些应用软件以图形界面或者字符字界存在。不同与单机操作系统的应用软件只在本地运行,LAXCUS分布式应用软件除了兼容本地运行,更主要的是以分布方式,并行运行在计算机集群的多台计算机上,保证了强大的处理能力。
一条分布式指令从LAXCUS分布式应用软件发出,它经过调用层、业务层,被传递到核心层,核心层经过分布式Shell的处理,传递给松耦合架构、松耦合架构进一步对分布式指令进行解耦,分成多条并行的计算机指令,交给多模通信网络处理。多模通信网络把每条并行指令传递给对应的计算机节点,节点上的本地Shell解析,交给系统内核处理,处理完成后,再进行聚合,按照原路返回,从而完成一次分布式计算机工作。
三、为什么我们需要分布式操作系统?
简单说就是:时代变了。
如果回顾历史,我们可以看到,世界上的任何事物,都是一个从简到繁的过程。操作系统也遵循些的这个规律,比如早期的IBM 0S360系统,到后来的UNIX、DOS、Windows、Macintosh、Linux、IOS、安卓。这些操作系统除了少部分是服务器系统,大部分属于个人系统,但是本质上都属于单机操作系统。三十年前,我们对计算机的要求是WORD、EXCEL、PPT、电子音乐、视频,这些工作普通的个人计算机都能完成。三十年后,我们对计算机的要求是大数据、云计算、人工智能、chatGPT大模型、超高音速空气流体、仿真核聚变,这些工作需要海量的计算资源,个人计算机显然无法胜任,必需从底层开始为应用业务提供庞大的基础计算,这是分布式操作系统产生的根本原因。还有贝尔定律:“世界大概每隔10年左右就会出现一种新型的操作系统”这一推论。现在随着时代的发展,业务需求的变化,一种新型的操作系统出现也就成为必然:分布式操作系统时代。
目前我们需要分布式操作系统,主要来自以下一些原因:
提高性能:分布式操作系统可以将计算任务分配到多个节点上执行,从而提高系统的处理能力。特别是在大规模数据处理和高性能计算领域,分布式操作系统的优势更加明显。
提高可扩展性:分布式操作系统可以根据需求动态地增加或减少节点,以满足系统的扩展需求。这使得系统更加灵活,能够适应不断变化的工作负载。
提高容错能力:分布式操作系统具有较强的容错能力,可以在节点出现故障时自 动恢复。这对于关键业务系统来说至关重要,可以保证系统的稳定运行。
提高资源利用率:分布式操作系统可以通过资源调度和管理技术,有效地利用系统中的硬件资源,避免资源浪费。这有助于降低系统的成本,提高投资回报率。
促进技术创新:分布式操作系统的发展推动了计算机科学领域的技术创新。许多新的技术和方法,如云计算、大数据和人工智能等,都包含了大量的分布式技术。
分布式操作系统是一种具有广泛应用前景的计算机技术。随着互联网、物联网和大数据、人工智能等领域的发展,对高性能、高可用和可扩展的计算系统的需求越来越迫切,分布式操作系统将成为未来计算机系统的重要组成部分。
当前的投资热点主要涵盖以下几个方向和行业:1. 5G技术:随着全球范围内5G网络的建设逐渐完善,5G相关产业迎来新的机遇。5G通信设备、芯片、通讯基础设施等相关产业都将是未来的热点。2. 新能源:随着全球对于环境保护意识的不断提高,新能源产业也得到了大力发展。太阳能、风能以及生物能等新能源行业将成为未来的热点。3. 人工智能:人工智能技术的广泛应用将推动各行各业的发展。图像识别、自然语言处理、智能交互等领域都具有巨大的发展潜力。4. 消费升级板块:消费升级板块包括教育、文化娱乐、健康医疗等行业,这些行业都受益于人们对于生活品质提升的需求,因此具有非常大的发展前景。5. 新零售:随着新技术的不断应用,新零售将成为未来的一大趋势,包括无人售货、智能购物、线上线下融合等新型零售模式都将受到市场的追捧。以上是当前的主要投资热点,当然还有一些其他的行业和领域也具有巨大的投资潜力,需要根据市场变化和自身情况进行选择。
2023伊始,先是开年毫末智行举办HAOMOAIDAY,放出自动驾驶行业最大智算中心,再有小鹏、理想新春全员信剑指城市导航辅助驾驶,随后是对话式AI大模型ChatGPT火遍全网,自动驾驶AI技术再次成为顶流。
无论是自动驾驶的“进城”,还是ChatGPT的“进化”,其背后都是对数据、算力需求指数级增长的态势以及对大模型的训练。当需求上来了,智算中心作为自动驾驶的“新基建”也就被业界越来越多的提及。智算中心即智能计算中心,是基于人工智能理论,采用领先的AI计算架构,提供人工智能应用所需算力服务、数据服务和算法服务的公共算力新型基础设施,换句话说,智算中心其实是一个算力的供应和生产平台。那为什么有了它“自动辅助驾驶”就可以变为“自动驾驶”了?
“降服”自动驾驶边际成本 自动驾驶智算中心“专云专用”
有人说,智算中心是自动驾驶发展的助推器,因为自动驾驶算法模型训练是机器学习的典型场景之一,其视觉检测、轨迹预测与行车规划等算法模型需要同时完成高并发的并行计算,对算力有着极高的需求,而智算为提高算法模型的成熟度提供了巨大的算力。在自动驾驶领域,说起智算中心,还得先提特斯拉。2017年,Transformer网络出现后,奠定了当前大模型领域主流的算法架构基础,随后,2020年,特斯拉将Transformer大模型引入自动驾驶领域中,是AI大模型应用于自动驾驶的开端。在这之后,特斯拉开始着手打造属于自己的AI计算中心——Dojo,总计使用了1.4万个英伟达的GPU来训练AI模型。为了进一步提升效率,特斯拉在2021年发布了自研的AI加速芯片D1,并计划将25个D1封装在一起组成一个训练模块(Training tile),然后再将训练模块组成一个机柜(Dojo ExaPOD)。最近一期的特斯拉AI DAY上,马斯克称将于2023年一季度部署完成特斯拉超级计算机群组ExaPOD。国内方面,2022年8月,小鹏汽车和阿里云合建了当时国内最大的自动驾驶智算中心“扶摇”,专门用于自动驾驶模型训练,算力规模达600PFLOPS,相当于每秒可以完成60亿亿次浮点运算。不过这个记录仅仅维持了4个多月。
今年1月,毫末智行联合火山引擎,共同推出自动驾驶行业最大的智算中心MANA OASIS(雪湖·绿洲),每秒浮点运算达67亿亿次,存储带宽每秒2T,通信带宽每秒800G。吉利也在1月28日上线了吉利星睿智算中心,目前已接入智能驾驶和车联网实验数据近百PB,在线车辆的并发计算支持达百万辆。从现有情形来看,成本和需求两重因素,是智算中心的诱人之处。
成本层面,算力作为自动驾驶的基本要素,需要更高性能的智算中心来完成训练、标注等工作。以毫末的MANA OASIS为例,通过部署Lego高性能算子库、ByteCCL通信优化能力,以及大模型训练框架,软硬一体,毫末把算力优化到极致。在训练效率方面,基于Sparse MoE,通过跨机共享,轻松完成千亿参数大模型训练,且百万个clips(毫末视频最小标注单位)训练成本只需百卡周级别,训练成本降低100倍。搭建高效、低成本的数据智能体系是自动驾驶技术健康发展的基础,也是自动驾驶系统能够不断迭代前行的重要环节,更是自动驾驶商业化闭环的关键所在。
小鹏汽车董事长何小鹏曾表态,“如果现在不以这样的方式(智算中心)提前储备算力,那么今后5年内,企业算力成本会从亿级,加到数十亿级。”
如果持续使用公有云服务,边际成本不断上涨只是一方面,更重要的是,智算中心可以让自动驾驶企业实现“专云专用”。自动驾驶的开发包括从数据采集到数据筛选、打标、模型训练、回放性验证、仿真测试等等环节。而云计算的本质是租赁计算设备,云服务商的设备都是统一采购,为了获得更多客户,这些设备都具备很大的通用性,设备内部使用的CPU、GPU/AI加速器、内存的型号与规格都相对固定,很难与车企和自动驾驶公司的算法形成最佳匹配。云服务厂商对自动驾驶算法的了解程度不高,不可避免的会在调度算力时出现损耗和效率不高的问题。从需求的角度来看,智算中心似乎可以成为自动驾驶和车企的托底神器。
同样以毫末为例,有了MANA OASIS的加持,毫末MANA五大模型全新亮相升级,车端感知架构实现跨代升级,毫末的技术栈布局继续保持完整领先的态势,尤其在感知、认知等层面领跑行业,引领大模型、大算力、大数据发展方向,冲刺进入自动驾驶3.0时代。拿数据采集、筛选和标注来说,自动驾驶系统在前期开发阶段,需要采集大量的道路环境数据,以此让车辆像人类驾驶员一样快速准确地识别车道、行人、障碍物等驾驶环境中的关键信息。唯一的办法是,通过在海量数据基础上不断的重复训练与验证,车辆对道路环境的认知水平逐渐趋近于真实情景,判断的准确性在这一过程中不断提升。
车企收集到的数据还需要进行模型训练,算法通过在数据上进行运算产生模型,而智算中心将是驱动大模型和海量数据训练的加速器。基于Sparse MoE,毫末根据计算特点,进行稀疏激活,提高计算效率,实现单机8卡就能训练百亿参数大模型的效果,实现跨机共享exper的方法,完成千亿参数规模大模型的训练,训练成本降低到百卡周级别;毫末设计并实现了业界领先的多任务并行训练系统,能同时处理图片、点云、结构化文本等多种模态的信息,既保证了模型的稀疏性、又提升了计算效率;MANA OASIS训练效率提升了100倍。
毫末智行CEO顾维灏也在详细阐释了建设智算中心的底层逻辑:“自动驾驶对智算中心的第一要求肯定是算力。智算中心的超大算力代表了有多少的AI工程师在这个练武场中能够做出什么大模型,能训练多少大模型。”
智能辅助驾驶“进城” MANA OASIS帮助毫末解决了哪些难题?
现在很多车企和自动驾驶技术企业已经开始把打造智算中心当成下一阶段竞争重点。今年1月的HAOMO AI DAY上,毫末智行董事长张凯给出了2023年自动驾驶行业趋势的十大新预测,超算中心赫然位列“超算中心会成为自动驾驶企业的入门配置。”
当下,随着新能源汽车品牌普遍已经把高速公路场景下的辅助驾驶列为标配,赛场已经悄然从高速路转向城市。与高速导航辅助驾驶相比,城市行车涉及了红绿灯、十字路口、行人电动车、遮挡、固定障碍物、频繁刹停起步等一系列难题,复杂度又提升了好几个数量级。
如果仅用实测车辆去挑战这些城市场景无法穷尽的Corner Case,成本、安全性、时间都将成为企业发展的壁垒。由此,虚拟仿真就成为了解决部分成本及场景多样性的关键,大规模的长尾场景需要数据中心提供充足的算力支持。仿真场景对现实的回归过程,同样需要巨大的算力提供支持。
在MANA OASIS的加持下,毫末的数据智能体系MANA五大模型全新亮相升级。而在五大模型助力下,MANA最新的车端感知架构,从过去分散的多个下游任务集成到了一起,形成一个更加端到端的架构,包括通用障碍物识别、局部路网、行为预测等任务,毫末车端感知架构实现了跨代升级。这也意味着毫末的感知能力更强,产品力更强,向全无人驾驶加速迈进。视觉自监督大模型,让毫末在中国首个实现4D Clip的自动标注。毫末利用海量videoclip,通过视频自监督方式,预训练出一个大模型,用少量人工标注好的clip数据进行Finetune(微调),训练检测跟踪模型,使得模型具备自动标注的能力;将已经标注好的千万级单帧数据所对应的原始视频提取出来组织成clip,其中10%是标注帧,90%是未标注帧,再将这些clip输入到模型,完成对90%未标注帧的自动标注,进而实现所有单帧标注向clip标注的100%的自动转化,同时降低98%的clip标注成本。毫末视频自监督大模型的泛化性效果极佳,即使是在一些非常困难的场景,例如严重遮挡的骑行者,远处的小目标,恶劣的天气和光照,都能准确地完成自动标注。3D重建大模型,助力毫末做数据生成,用更低成本解决数据分布问题,提升感知效果。面对“完全从真实数据中积累corner case困难且昂贵”的行业难题,毫末将NeRF技术应用在自动驾驶场景重建和数据生成中,它通过改变视角、光照、纹理材质的方法,生成高真实感数据,实现以低成本获取normal case,生成各种高成本corner case。3D重建大模型生成的数据,不仅比传统的人工显式建模再渲染纹理的方法效果更好、成本更低。增加NeRF生成的数据后,还可将感知的错误率降低30%以上,且数据生成可实现全程自动化,无需任何人工参与。多模态互监督大模型则可以完成通用障碍物的识别。毫末在成功实现车道线和常见障碍物的精准检测后,针对城市多种异形障碍物的稳定检测问题,毫末正在思考和探索更加通用的解决方案。毫末的多模态互监督大模型,引入了激光雷达作为视觉监督信号,直接使用视频数据来推理场景的通用结构表达。该通用结构的检测,可以很好地补充已有的语义障碍物检测,有效提升自动驾驶系统在城市复杂工况下的通过率。动态环境大模型,可以精准预测道路的拓扑关系,让车辆始终行驶在正确的车道中。在重感知技术路线下,毫末为了将对高精地图的依赖度降到最低,面临着“道路拓扑结构实时推断”的挑战。毫末在BEV的feature map(特征图)基础上,以标精地图作为引导信息,使用自回归编解码网络,将BEV特征,解码为结构化的拓扑点序列,实现车道拓扑预测。让毫末的感知能力,能像人类一样在标准地图的导航提示下,就可以实现对道路拓扑结构的实时推断。毫末认为,解决了路口问题实际就解决了大部分城市NOH问题。目前在保定、北京,毫末对于85%的路口的拓扑推断准确率高达95%。即便是非常复杂、非常不规则的路口,毫末也能准确预测,比老司机还老司机。
人驾自监督认知大模型在今年2月已经被正式升级为DriveGPT,这也是全球首个自动驾驶认知大模型。它能让毫末的驾驶策略更加拟人化,安全及顺畅。毫末DriveGPT已完成模型搭建和第一阶段数据的跑通,参数规模可对标GPT-2的水平。DriveGPT将持续引入大规模真实接管数据,通过人驾数据反馈的强化学习,来不断提升测评效果,同时也将DriveGPT作为云端测评模型,用来评估车端小模型的驾驶效果。仿真测试能有效缩短技术和产品开发周期,降低研发成本。业内典型的长尾场景问题不够丰富,现实中可遇而不可求的极端场景,利用仿真平台可以便捷生成。由于仿真测试中的模拟环境需要实现多模态融合,以支持传感器模组的复杂性,因而也需要大算力的支持。
除了毫末,特斯拉超算中心拥有近2万张GPU,对自动驾驶训练效率产生立竿见影的效果,最大限度地提升了自动驾驶系统的开发效率;大陆集团的高算力集群,将开发周期从几周缩短至几个小时,使自动驾驶得以在中短期商业计划中落实;机器学习时间的缩短加快了新科技进入市场的速度;“扶摇”支持小鹏自动驾驶核心模型的训练时长从7天缩短至1小时内,大幅提速近170倍……
当前,一个不争的事实就是,在自动驾驶领域具有长期规划的车企,无论是造车新势力还是传统品牌,或者技术供应商,都在搭建自己的超算中心,以掌握稳定的算力资源,缩短开发周期,加快自动驾驶产品的上市。相反,如果没有超算中心,那么自动驾驶训练速度将明显放缓,自动驾驶企业间的差距也将愈发明显。用智算中心打造数据护城河 数字新基建逐步成为发展“标配”
自动驾驶发展至今,业界发现乘用车智能辅助驾驶是最有可能大规模铺开的商业场景。据高工智能汽车研究院数据显示,2022年中国市场(不含进出口)乘用车前装标配搭载L2级辅助驾驶的搭载率,已经连续第二个月超过30%。智研咨询数据显示,预计到2026年,全球新车L2自动驾驶的渗透率可达53.99%。
今年,城市导航辅助驾驶也开启了量产的征程。西部证券预测,2023~2026年,国内市场上搭载城市导航辅助驾驶的车型将分别达到70万、169万和348万辆,占比将分别达到17%、40%和70%。
在城市导航辅助驾驶落地加速的背景下,更容易复制、拓展的重感知的方案,受到了更多关注。在重感知技术路线下,面对“道路拓扑结构实时推断”的挑战,毫末的选择是在特征图基础上,以标精地图作为引导信息,使用自回归编解码网络,通过结构化的拓扑点序列解码,实现车道拓扑预测。由此不难看出,业界逐渐达成共识的重感知路线,相比高精地图方案,更依赖算力加持。
人工智能是创新的加速器,智算中心则可以为各类技术创新提供支撑。一方面,智算中心可以为构建安全可信、可复用的技术研发环境提供算力设施支撑,为各领域科技研发提供智能计算服务,加速科技研发的进程;另一方面,智算中心是新一代信息技术的集成应用载体,智算中心的快速建设推广与规模化应用将推动通信服务网络、大数据、人工智能等技术的快速迭代,从而促进技术创新。自动驾驶数据是片段式的,特点是小文件多,达到百亿个,而且训练需要交换的数据多,智算中心可以提供充足的带宽,并且可以让自动驾驶模型拥有更好的并行计算框架,在训练的时候把硬件资源都利用起来。
2020年4月20日,国家发展改革委首次明确新型基础设施的范围,其中就包括以智能计算中心为代表的算力基础设施。2023年1月10日,国家工业信息安全发展研究中心推出《智能计算中心2.0时代展望报告》,指出经过5年多发展,智算中心正由1.0粗放扩张阶段走向2.0精细规划阶段。
根据相关统计和测算,目前全国超过30个城市在建或筹建智算中心,未来5年我国智能算力规模年复合增长率将达52.3%。智算中心的创新发展,将进一步为人工智能夯实“算力底座”,成为带动人工智能及相关产业快速发展的新引擎。
“我们测算,智算中心带来的成本优化是惊人的,将达到亿元级别。”这是今年1月,张凯提出的预测。从目前及未来的规划量产规模来看,毫末自建智算中心可节约巨额成本;其带来的效率提升也非常明显。
人工智能发展很快,新的算法层出不穷,需尽快引入新的技术和模型,与此数据是智能化发展最大的驱动力,也占据了大量成本构成。用自建智算中心来打造数据护城河,不仅能够完善产业智能生态,更能让企业在智能化方面占据先发优势,智算中心作为数字新基建,未来势必将引领自动驾驶技术持续迭代升级。
【本文来自易车号作者车业视界,版权归作者所有,任何形式转载请联系作者。内容仅代表作者观点,与易车无关】