• 帮助中心

  • ADADADADAD

    理想,豆汁,模型

    实测车载DeepSeek:做北京旅游攻略 避开喝豆汁儿那种[ 10号文库 ]

    10号文库 时间:2025-04-07 07:06:17 热度:0℃

    作者:文/会员上传 下载docx

    简介:

    接入DeepSeek后,理想又为车机自研了一个推理模型:它能帮你编故事哄孩子,提供买房建议,还能制定旅游攻略,直接筛掉你不想要的体验。虽然此前的推理模型也能胜任这些任务,不过理想自研推理模型有所不同&

    以下为本文的正文内容,请查阅,本站为公益性网站,复制本文以及下载DOC文档全部免费。

    接入DeepSeek后,理想又为车机自研了一个推理模型:

    它能帮你编故事哄孩子,提供买房建议,还能制定旅游攻略,直接筛掉你不想要的体验。

    虽然此前的推理模型也能胜任这些任务,不过理想自研推理模型有所不同——

    它能自主分析,你的问题需要不需要思考,需要深度思考还是短思考。

    行业争着接入了DeepSeek的当下,理想选了一条新路径,打造了「汽车版DeepSeek」。

    汽车版DeepSeek有什么特点?

    为什么理想要花大力气自研推理模型,而不是直接上车DeepSeek?

    带着这些问题,智能车参考第一时间上车“拷问”了一番理想同学:

    不是,你一句“我不喝豆汁儿”,他就真给你做北京一日游攻略啊。

    实测「汽车版DeepSeek」

    更新理想OTA 7.2版本后,进入语音设置界面会看到一个深度思考的按钮,就像咱们日常用的DeepSeek一样,点击打开:

    实测车载DeepSeek:做北京旅游攻略 避开喝豆汁儿那种

    你也可以用语音对话,让理想同学帮你打开。

    不过与常见推理模型不同的是,即便打开了深度思考开关,理想同学也不会每条对话都陷入沉思,而是模型自主决策要不要思考,要思考多久

    车控命令「不思考」,理想同学直接执行简单需求「短思考」,车机上方会显示生成中

    实测车载DeepSeek:做北京旅游攻略 避开喝豆汁儿那种

    复杂需求才「深度思考」,理想同学还会说「emmm,我得想想」

    实测车载DeepSeek:做北京旅游攻略 避开喝豆汁儿那种

    实际体验下来,像“我好热啊”、“腰好酸”、“还有多久到目的地”这类对话,即便是处于「深度思考」模式下,理想同学也会分别打开空调、座椅按摩、显示目的地,瞬间响应,无需思考。

    实测车载DeepSeek:做北京旅游攻略 避开喝豆汁儿那种

    而对于车主的一些复杂需求,比方说,你想去北京旅游,但又不想品鉴老北京豆汁儿,那就直接把定制攻略的需求说给理想同学。

    稍等几秒,私人定制的旅行攻略就出来了,精确到每个小时去哪儿玩,吃什么(pass掉了豆汁),花多少钱。:

    实测车载DeepSeek:做北京旅游攻略 避开喝豆汁儿那种

    家孩子在车上不睡觉闹腾,你可以让TA现编个故事哄哄孩子:

    实测车载DeepSeek:做北京旅游攻略 避开喝豆汁儿那种

    老婆打电话沟通房子买哪儿,你也可以问问理想同学:

    实测车载DeepSeek:做北京旅游攻略 避开喝豆汁儿那种

    这都是理想同学深度思考后给出的答案,而且比常见的推理模型响应要快一点。

    自主选择思考长度,更快的深度思考,这背后是怎么实现的?

    「汽车版DeepSeek」的实现过程

    理想此前自研的MindGPT大家都比较熟悉了,「汽车版DeepSeek」实际就是以MindGPT为基座模型,进行了后训练,指令微调和强化学习多阶段优化

    首先,由于模型能力和数据质量直接相关,所以理想在训练数据上做了非常细致的工作。

    据介绍,理想基于过去已有的1100多个技能体系,根据问题复杂度和场景,对数据做了精细归类。

    实测车载DeepSeek:做北京旅游攻略 避开喝豆汁儿那种

    数据类型主要分三种:

    第一类,适合做长推理的多轮对话样本,规模在数十万级,用DeepSeek去产出思考过程,然后将产出结果作为训练深度思考能力的数据。

    第二类,不适合做长推理,但是仍然需要短思考的数据,还是借助DeepSeek加工形成的短思考数据,规模大概在十万级

    第三类则是以往存储的不需要思考的数据,这部分数据最多,据了解规模在百万级,理想从中做了抽样。

    这三类数据最终合在一起对模型做后训练,模型就具备了长思考能力,同时也会自主决策是否需要思考,以及思考长短。

    实测车载DeepSeek:做北京旅游攻略 避开喝豆汁儿那种

    完成模型训练后,理想又遇到了另一个痛点:

    如何让模型在深度思考的同时,又能响应的更快?

    理想关注的首要指标是首token响应时间,最快可达0.3秒。

    背后主要是三项措施:

    PD分离,将Prefill和Decoder分离部署由于Prefill阶段对首Token影响最大,这一阶段采用高性能Attention机制多卡并行推理工程优化

    看上去实现过程并不复杂,但实际上理想遇到了很多挑战,春节复工归来就定下了4月初上新的时间点,然后开启冲刺,时间紧,任务重。

    为什么理想车端不直接用DeepSeek,而是自研推理模型?

    为什么自研车端推理模型?

    据理想汽车透露,其打造车端推理模型有内外两大因素:

    据介绍,实际上此前理想的车主就有这方面需求。有的车主日常会问车机一些时事新闻,然后想了解背后的投资建议,比如最近疯涨的金价。

    也有车主上班路上突然接到通知要开会,但是对会议主题涉及的市场又不够了解,想让模型归纳相关信息进行分析。

    过去的模型不能满足车主这方面的需求,理想便考虑上车推理模型。

    实测车载DeepSeek:做北京旅游攻略 避开喝豆汁儿那种

    然后DeepSeek火爆海内外,加速了上车过程。

    DeepSeek强大的破圈效应让很多用户第一次了解到AI的威力,原来AI可以深度思考,提供如此强大的分析能力。

    有的车主就直接来问理想:

    你们什么时候接入DeepSeek?

    这样的问题,相信业内不只有理想收到了。这也是为什么春节复工后,一众车企争先宣布接入DeepSeek。

    实际上,理想同学App此前也接入了满血版的DeepSeek。

    实测车载DeepSeek:做北京旅游攻略 避开喝豆汁儿那种

    那为什么还要理想要在车端自研推理模型呢?

    理想汽车认为,DeepSeek更倾向电脑和手机等终端场景,车载场景更加垂直,不管是车主的相关知识需求,还是对话要求的响应速度,都需要打造一个「汽车版DeepSeek」。

    现有的推理模型,一般思考时间都比较长,而且思考后输出的内容也很长,但车主并不是每次对话都需要一个很丰富的内容作为回应。你是个好模型,只是咱们不合适。

    所以理想认为,需要一个「汽车版的DeepSeek」,能提高模型思考能力的同时,也能更灵活快速地响应车主对话,避免车主问一个问题无法得到及时回复,而且回复显得冗长。

    实测车载DeepSeek:做北京旅游攻略 避开喝豆汁儿那种

    模型自主决策是否思考和思考长度,这区别于目前的主流方案。

    这一特性有希望推广到其他场景吗?

    理想汽车也对未来趋势做出了展望,这很可能会是后续AI助手应用的一个发展方向。

    结合当前行业进展,以及理想对理想同学的追求来看,或许理想未来会在端侧部署大模型,以加快响应车主相关需求。

    也有分析指出,由于英伟达Thor即将上车,更充沛的算力和前瞻设计,也为未来实现「舱驾一体」提供了可能。

    会深度思考的理想同学,是不是朝着李想此前提出的「硅基家人」,又近了一步doge?

    理想自研推理模型,解决你的痛点了吗?

    实测车载DeepSeek:做北京旅游攻略 避开喝豆汁儿那种.docx

    将本文的Word文档下载到电脑

    推荐度:

    下载
    热门标签: TAGS1 TAGS2 TAGS3 TAGS4 TAGS5
    ADADAD
    热门栏目