可过去几年不少车企的造车项目,抓住的主

与收入预期,迫使大家更严肃地考虑消费决策中的各种短/长期、显/隐性成本。变得更加谨慎的城市中产们,实在很难不多瞅两眼经济适用的特斯拉。 02 加法是过去,减法才是正义 翻开特斯拉近几年的业绩表,一个事实显而易见:在自动驾驶到来之前,特斯拉是靠做减法,把电动和汽车的部分做到足够好,才做出了两款智能电动汽车的世界级爆款。 相比之下,同一时期国内智能电动汽车的主流思潮是做加法:用更多的车型,更强的硬件,更丰富的配置,更混搭的定位,更大的尺寸等等,在看起来更大的潜客群中捞到用户。 在整车工程能力、产品定义能力与特斯拉尚存差距的早期,这种差异化的路线选择,帮助不少国内车企尤其是新势力暂时赢得了生存空间。

然而代价是,当做的加法越多,对市场上

的长尾需求考虑越多,一辆车分配 尼泊尔电话号码库 给主流需求的开发资源就越有限,BOM成本就越容易失控。 此时,除了少数幸运儿,一款车要么成为基础素质不行、边缘功能亮眼的怪胎;要么成为售价过高、销量过低的吉祥物;要么成为看上去销量不错,但车企骑马难下被迫承受亏损的鸡肋。 吉祥物之一 而当同样的路线日渐车满为患,僧多粥少之时,车企们还是要回过头解决那个基础问题:一家车企想留在牌桌上最好的方式是打造爆款。而打造爆款的本质,是高效地满足好更广大人民群众的主流需求。 像特斯拉一样做减法乃至比特斯拉更好地做减法,成为智能电动汽车近来的显学。 今年,“因为补能过于便利所以对能耗没那么上心”的蔚来,在乐道品牌上将减少电耗作为了关键课题。 乐道L60放下了蔚来对标配双电机的执着,标准版车型搭载一枚240kW的永磁同步电机,用60度的电池达成了555km的CLTC续航,将百公里电耗压到了12.1kWh,与Model Y相当。此前,和乐道L60尺寸相近的ES6,搭载75kWh电池,续航反而是更低的500km。 同样,以往习惯于向智驾倾斜大量工程与市场资源的小鹏,今年也选择打好低电耗这张牌。小鹏新车型Mona 03与P7+,都通过轻量化、热管理优化和电控技术的

电话号码库

进步,将CLTC百公里电耗控制

在11.5kWh左右,逼近特斯拉Model 3的水平。 降低 了解 AI SEO 的终极指南 电耗是造车过程中典型的减法,以及难而正确的事。 降低电耗的重要方式:抠细节 它是一项牵一发而动全身的基础工程,需要车型上各个子模块的参与配合,需要大量优化工作,考验车企的车辆工程能力与三电技术。但同时降低电耗能很好地实现正向循环: 更低的电耗让车企可以用更少的电池实现同样的续航,这意味着车辆减重(反过来进一步优化能耗和操控),也意味着整车的BOM成本降低(车企可选择降低售价或加强其他刚需配置),还意味着单位续航下用户的补能时间缩短。 以降低电耗为突破口反映出的实质是,更多国内车企正在摸索学习一整套做减法的造车方法论,逐渐掌握面向主流人群打造纯电车型的产品定义能力。 体现在市场上,爆款纯电车型正在变多,月销量超过2万的新势力也多了。 03 尾声 在中国,智能电动汽车是一个紧密联系起来,又略带误导性的概念。市场的真实需求,是汽车电动化先行,智能化(智驾)后发,两者的发展并不同频。

要矛盾不是电动,甚至可能不是汽车。 但在缴纳昂贵的补 cz 领先 课费之后,行业抓重点的能力普涨。而在这个过程中,行业参与者们将辩证法中“主要矛盾的识别和处理对于解决问题至关重要”,生动地实践了一遍。Meta AI 的这些新技术,让机器人拥有「触觉」 爱范儿 ·2024-11-05 17:02 拥有「五感」的机器人离我们不远了。 触觉加持 无限类人 人工智能机器人发展到今天,其拥有「视觉」或者「听觉」早已经见怪不怪。 毕竟,这两种感官几乎是人类感知物理世界最重要的渠道。 而 Meta AI 的基础人工智能研究团队(FAIR)近日公布的新技术,则为机器人赋予了「触觉」。对此,Meta 的愿景是使 AI 能够「更丰富地了解世界」并「更好地理解和模拟物理世界」。 毫无疑问,这些新技术让机器人又多了一种与世界互动的方式,也让其在「类人」的道路上又向前了一步。 图片来自:NewsBytes Meta 正在与美国传感器公司 GelSight 和韩国机器人公司 Wonik Robotics 合作,开发了一系列新技术,致力于将触觉传感器商业化,并将其用于人工智能当中。 这些新技术包括三个研究工具——「Sparsh」、「Digit 360」和「Digit Plexus」,专注于触觉感知、机器人灵巧性和人机交互。此外,Meta 还引入了「PARTNR」,这是一种新的基准测试,用于评估人机协作中的规划和推理。 需要注意的是,这些新技术目前并未为消费者推出,而是面向科学家和研究人员的。 图片来自:Techopedia Sparsh是第一个用于基于视觉的触觉感知的通用编码器模型,由华盛顿大学和卡内基梅隆大学合作开发。 听起来似乎有些抽象,既然是「触觉」,为什么又「基于视觉」呢? 实际上,传统方法依赖于特定任务和传感器的手工模型,其需要将物体的「触摸参数」(例如力量、摩擦等等)打包成「感觉标签」喂给机器人,相当于告诉机器人什么是「轻轻地拿」或者「用力地推」。 然而这种方法比较麻烦,因为需要为每个不同的任务和不同的传感器收集很多这样的标签数据。 Sparsh 则通过自我监督学习(SSL)从经验中自主学习,不需要告诉它每个动作对应的标签。其在一个包含 460000 多个触觉图像的大型数据集上进行预训练,这就像是让机器人看很多不同的物体和场景,然后自己学习如何识别和处理这些物体。 简单来说,Sparsh 就像是让机器人通过看大量的图片和视频来自学如何「感觉」物体,而不是通过人工给它的「感觉」打标签。这样,机器人就更容易学会如何在不同的任务中使用不同的触觉传感器了。 有趣的是,「Sparsh」这个名字源自梵语,意为

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注