问:我很好奇在就是DeepSeek全球爆火的时候,你这个春节是怎么过的?
李想:春节过得挺好的,还带着孩子去看哪吒2。那其实我印象应该是1月20号然后DeepSeek R1上线的,然后到后边开源,我们也在对DeepSeek做了很多的这个整个的研究,就是我们也在研究DeepSeek很多东西为什么做得好。包括整个的训练和推理的效率,也包括这些一个MoE(混合专家模型)模型部署上去对内存占用的这些挑战。
其实我们自己已经开始在芯片上来写FP8(8 位浮点数格式)的整个的工程的优化了。因为我们自己有编译团队。那比较有意思的一点是,我没有上来敢跟模型团队直接聊,我先跟谢炎(理想汽车CTO)聊了一下,我说我们本身要做VLA(视觉语言行动模型),然后VLA一个很重要的计划是到今年的这个9月份的时候能够做一个非常好的语言模型出来,才能再往下去训练VLA(视觉语言行动模型)。
但是今天看的话说我们自己预测的我们到9月份做的模型,能力是否比DeepSeek V3加R1更强?我说至少我听到你们说的东西,我说不如那个强,对吧?而且它开源开得如此的彻底。然后我们是否应该基于它的开源,去做我们的 VLA(视觉语言行动模型)的L(language 语言)的部分,并且我们基于这个L(language 语言)的部分,比如说其实我在理想同学用的话可能就是个VL(视觉和语言),它没有A(action 行动),对吧?就把vision(视觉)和language(语言)其实放在一起,包括要做成端到端的,然后语音的这样的一个方式。
我觉得我们原来本来应该是9月份以后才能做这些工作,我们是否应该站在巨人的肩膀上就去做了?然后谢炎(理想汽车CTO)说肯定应该这么做。
那时候我们比较担心陈伟(理想汽车基座模型负责人)会怎么想,对吧?因为这个压力是挺大的。然后我们发现陈伟比我们还坚决。他说这个会加速我们往下一步的这个工作,我们应该以这个为基础,加速VLA(视觉语言行动模型),加速端到端的多模态这样的一个进展,然后研究团队也都在研究我们如何在芯片上也跑到同样的训练和推理的效率,大家都在同步地进行工作。
我跟谢炎(理想汽车CTO)打的最多的电话,我们还有一个专门的人工智能的战略小组,我们就在里边不停地聊,发现大家并不纠结,因为我们知道我们家企业的基因,还是要为用户推出最好的产品和服务。
整个拥抱DeepSeek的这个过程比我们想象得要快,所以这是今天其实我们VLA(视觉语言行动模型)推出的速度也会比原来的预期的要快。