B—sports必一

PRODUCT

b体育官网
CONTACT US
023-63826275
13637916788(李经理)
2659952367
重庆市巴南区其龙村四社
界石镇界南路235号(力阳嘉渝对面)
B—sports必一,欢迎来样定做
环保袋
极越“汽车机器人进化日”超前体验!
发布时间:2024-04-02 11:39:02 来源:必一sport网页版登录 作者:b体育官网

基本信息:

咨询热线:13637916788
产品详情

  [汽车之家资讯] 日前,极越汽车举办了“汽车机器人进化日”超前体验活动。极越数字产品负责人潘云鹏;百度自动驾驶技术负责人/百度IDG技术委员会主席王亮,将针对此次OTA升级计划以及最新技术进展做出分享。具体信息如下:

  潘云鹏:非常荣幸,能和大家一起分享一下V1.3.0、1.3.1软件关键内容。我们在软件迭代方面,积极听取用户意见,在新浪微博上还专门有这么一个热词#极越听劝。我们基本上一直保持这个人设,我们的整体软件迭代逻辑有一个核心点,就是通过SIMO来获取用户反馈,一共得到将近12000多条反馈,每天有大几百条反馈给数据库里灌。

  第一个阶段已经过去,无论在车展上拉横幅、400投诉电话、微博找CEO,用户都处在非常弱势,非常无助的情况,不知道该怎么做,车企也不太很清楚怎么样才能拿到用户最真实的反馈。

  极越汽车解决了这个问题,从公司创建的时候开始,直接进入2.0时代,用SIMO专属客服作为桥梁,每当大家觉得有问题的时候,就说SIMO我要反馈问题,无论是收集到产品建议,还是吐槽,还是对谁的建议,我们都可以直接收到,并且我们的后台有自动分发系统标签,直接到“罪魁祸首”(工程师)的手里。

  2024年我们已经升级到了3.0,融合大模型能力,做到更快速的反馈。因为现在每天反馈量太多,人工处理的边际成本特别高,所以融合大模型的能力,现在会做自动诊断,自动判断,也会在用户吐槽的时候第一时间给到用户解法。

  之前发过一个视频,有一个比较直观的例子,只要说SIMO我要反馈,我们的用户APP可以以秒级的速度收到一条问题,然后开始处理。这是内部的群,包括各个团队一级部门负责人都在里面,实时收到,包括所有需要解决问题所需的lock都会在里面。从用户侧收到的反馈,最终吐槽得对,属于比较好的产品建议,或者是比较好的产品问题,我们会给予50积分奖励。我们这套机制运转了很长一段时间,基于这个体系帮助我们迭代我们的软件。

  我们一共收到12584条反馈,在1.3.0和1.3.1的版本上有60%的问题已经得到解决,平均处理时长小于1天。问题过来后,从工程师实时看这些问题,并分析这些问题,小于24个小时完成反馈。在用户比较关注的几大类反馈问题中,智舱智驾占30%,产品建议占20%,其他问题,其他功能软件占20%。比较多的例子,车主比较共鸣,不清楚转向灯怎么用,PPA怎么开启,定位会飘,娱乐功能少,APP觉得不够丰富,蓝牙钥匙离车落不了锁,或者进车解不了锁。我们在1.3.0和1.3.1针对这些问题得到了解决和优化。

  智舱主要分几部分,第一部分更多是U型方向盘,之前是圆型,我们做这款产品的时候这款产品发现U型方向盘有更好的视野,这次U型方向盘大家可以感受到驾驶,3D地图的体验有了质的飞跃。

  第二个转向灯,我们认为在自动驾驶或者人动手开的时候,可以通过算法,尽量不需要手动开启转向灯,在1.3.0版本里无论在变道还是转弯,已经不需要再关闭转向灯,这个功能已经上线版本里,我们通过你的意图,我们主动打起转向灯,在1.4的版本里会做。

  接着是换挡,很多用户觉得换挡的时候容易手滑,滑不到位,现在可以“点击换挡”,轻轻一点,极速换挡。换档会做成自动化,判断前车和后车相对位置,包括通过上次行车的行为,判断出自动前进或后退。

  SIMO文心一言的能力,我们在之前版本里文心一言是集成进去了,是需要特地的说聊天或唤起文心一言进入文心一言的空间。现在文心一言是原生集成到SIMO能力里,并不需要刻意的来讲(唤醒),我要调动起文心一言的哪些能力,它可以根据你的说话内容自动的帮助你完成这些任务。

  这是一个视频,(#SIMO从可见即可说到可说即可做)。还可以有更多的场景延展,包括问SIMO现在最热门的电视剧有哪些。比如《繁花》《三大队》,立马说SIMO我要播放《三大队》或者《繁花》,基本能够实时播放,在SIMO大模型领域和娱乐域能做到比较好的切换。这是关于座舱部分的更新。

  现在一共有三代,第一代是单目DNN感知网络环视后融合,2.0大家遇到比较多的BEV+Transformer时空融合,极越汽车是唯一一家能够做BEV+OCC+Transformer多任务统一网络的企业,我们给它起了一个名字,BOT,也是机器人的概念。本质上,是想说我们是超高精度体素,甚至小于厘米级,由过去BEV2D变成3D,来判断驾驶空间里是否被占用。超直觉,之前需要判断前方是人是车还是什么东西,现在基本上认为前方有一个物体,和开车的时候很像,通过直觉绕开它,而不需要通过思考。

  这是三个在1.3.1的时候比较关键的场景,遇障刹停,第二个遇到障碍物无感绕障,提前规划,到障碍物可以跨车道绕开。另外是远离硬隔离,它会在你离水马硬路很近的时候适当远离,给大家很足的安心感,这种场景在匝道上大家感受很明显。

  PPA我们做了很多细节上的提升,PPA之前大家觉得变道比较保守,现在比较自信,在一些需要判断要不要变道的路况中,我们不会来回的犹豫。第二,有一些更加灵活的变道或者通行策略,比如公交车道在可以行驶的时间段,我们可以借用公交车道进行通行。包括黄虚线借道上有更加灵活绕行策略。

  无感区域,绕过路障、以及过路障已经提到了,主要是基于OCC能力。在一些小路上,导航地图如果有一些信息不是够完整、准确的时候,我们能够更加从容的通过这些路段。在这个图上没有展示的,或者对比之前地图有很大量的变道,大家可能觉得不知道为什么变道、刹车,我们会告诉大家为什么变道,有时候因为超车,有时候因为避障,有时候因为匝道到了,有时候因为导航路径规划的原因,这些东西都在这个版本上给大家做了提升。

  我们在今年年底,除了上海以外,北京、杭州、深圳,开了大量的城区路宽,而不是开一条路,是真正做到把路连成网,让它有连续性,用户可以从A点到B点实现智驾通勤。我们认为只有做到60%-70%的用车场景和90%以上高频场景的覆盖才能叫线+城市的城区道路,我们会采取通勤+轻图的模式。

  我们一直说汽车机器人,我们认为视觉不仅仅用在自动驾驶身上,我们认为视觉(系统)可以用在更多的通用任务,比如开门刹、烧饼模式、更精准路况识别、透明底盘,大家在1.3版本上都能感受到。

  泊车我们做了算法的升级,我们自动APA渗透率比较高,达到96%,成功率88%,算法重写之后,平均可以减少20-30%的时间,断头路和极窄车位提升25%的成功率,断头路比较极端的场景,我们测试下来,有将近一倍容错次数的减少,也是比较大的升级。

  后面是关于安全上的更新。我们是电动门,大家会担忧电动门,在车辆没电的情况下,是否会有打不开的情况,我们有有专门独立电源,专门应对电动门的场景,电动门会在碰撞的15秒保持关闭,这样避免司机或者乘客被甩出去,进行二次伤害。最后是1.3版本更新上的,我们有一个救生门模式,借助破冰模式,在冬天的时候,破冰的场景上,我们应用到碰撞场景上,可以用一百斤力量把车门顶开,保证乘客在事故之后的安全,得到安全的救助。

  娱乐进化,大家一直吐槽APP太少,这次加入了B站、云听、小宇宙,后期大家可以期待一下,我们很快会加速APPStore的建设,会有更多第三方的生态APP接入进来。还有switch投屏,可以在车内通过转接头进行投屏,进行游戏,除了抽烟以外,又多了一个回家在车上多待一会儿的理由。车载KTV方面,我们在商城上架了相应的麦克风等硬件,可以在车上和朋友进行K歌。

  最后一个是体验进化,冬天充电速度,座舱预热,破冰门,雪地脱困,这次上了APP,会有座舱预约加热功能,电池预热,特别是磷酸铁锂电池在比较低温情况下,为了保持化学上的活性,我们可以为电池进行提前加热,使得车辆得到了充电站之后,充电效率和充电速率可以得到提升,这是电池预热的功能,在1.3版本里已经加入。对于performance版本车型,会有雪地模式,让大家在雪地下有比省心的驾驶体验。

  在一万两千多条的反馈下,包括哨兵模式,大家吐槽有误报,PPA开启后为什么车辆变道,3D地图下,红绿灯,转向灯,大家觉得听不到,特别开音乐的时候转向灯声音太小,我们比较听劝,都做了调整。

  手机和蓝牙实时音频,以前大家连接到手机上以后,播放手机上的媒体,之前要手动切换到手机蓝牙才能播放,现在手机实时蓝牙检测,它可以在你想播放手机,比如微信、抖音多媒体信道可以自由的进行切换,播完之后自动切换车内通道。舒适进出是用户投诉反馈比较多的,座椅没有恢复到已有的位置或者记忆位置,以及记忆位置不准确,我们在1.3.0和1.3.1都有优化。

  王亮:各位媒体朋友,各位集度同事大家下午好!很荣幸收到邀请,过来跟大家做技术层面的交流。今天分享的题目Vision Takes All,有一个副标题,用AI原生思维重构自动驾驶视觉感知技术,这里有一些词解释一下,英文这个词代表什么?这是我们内部的愿景,我们希望是用纯视觉,#用一个视觉大模型去Takes All,英文翻译过来是“通吃”,我们希望解决所有自动驾驶感知相关的问题,用纯视觉大模型做。副标题里,AI原生思维,是什么概念?这在百度内部被提的比较多的概念。

  我说一下我的理解,什么是好的AI原生思维,在今天大模型时代大数据时代,我举一个很好的例子,极越语音设计就是非常AI原生思维的产品设计,我认识的人,包括我,开车久了之后,不会再找车上按纽,所有事情很自然的通过语音交互去完成。

  如果从算法上讲,举一个例子,趋势是什么?都是从规则到多模型多任务,再到模型的聚合,大模型,多任务的过程,比如我们原来判断会不会有车辆、会不会加塞,最早会有每个时刻的障碍物拟合加轨迹,看看和前行的轨迹会不会有交叉,都可以靠数学计算几何计算做判断。第二步可以做模型判断,可以学车轮子、学车灯、学车道线,这三个模型输出的结果,能更好更准确的判断,这个车会不会对我们进行加塞动作。到今天会怎么做?我们把所有的小模型都去掉,我们用连续帧视频的信息直接判断会不会加塞,这也是一种在算法层面AI原生思维的体现。

  分享第一部分,很多人会问,媒体朋友也会感兴趣,为什么极越高阶智驾PPA选择用纯视觉做?有很多人问,为什么不用激光雷达。马斯克说人类没有主动的测距能力,两个眼睛就能开车,AI也可以。激光雷达是比较昂贵的,虽然现在降本大潮下,价格不断的往下打,但是我可以很确定的说,它的器件和成像原理在这里,再怎么降本,它的成本也会是相机的5-10倍。激光雷达是很精密的光学测距仪器,里面有很多移动部件,这种部件有很高概率会出现可靠性问题,会带来售后问题。

  第四点,我们也有毫米波雷达、雷达,它们原理差不多,可以做很多激光雷达做的工作,但是不管激光雷达还是毫米波、,他们都代替不了相机。最后更专业一点的算法同学会有感触,激光雷达也不是一个完美的系统,它会有伪影,消除伪影的影响也是非常难做,非常痛苦的过程。这都是大家耳熟能详的原因。

  我们日常的演进迭代速度等于什么?(初速度+加速度)×时间,跟时间相关的是加速度。初速度很重要,这是算法从0到1的阶段,也是激光雷达最大的优势。2017年左右很多创业公司可以在三个月可以在城市里把激光雷达的自动驾驶方案demo跑出来,为什么这么快?他们不用深耕吗?如果有很好的工程师,利用激光雷达直接提供的三维信息,可以不需要那么强的算法,就能把这个事情跑起来,没那么难。但是在视觉方案这边,视觉初速度很慢。从Mobileye做了25年的视觉方案,就能发现这个事情足够。