共6个回答
-
最佳回答师瑾磊福GPT模型对算力有较高的需求。GPT是基于深度学习的大型神经网络模型,由数十亿个参数组成。在对话生成任务中,它需要通过大量的计算来处理输入的文本数据,并生成合适的文本回复。训练GPT模型需要高算力支持。在预训练阶段,GPT模型会使用大规模的文本数据进行训练,这需要强大的计算能力和大量的存储空间。通常情况下,预训练过程需要使用大规模集群进行分布式计算,以提高计算效率和训练速度。推理阶段也需要一定的算力。在对话生成任务中,用户的输入会被传递给GPT模型,模型会通过计算对输入进行处理,并生成输出。由于GPT模型较大,对于每个用户的输入,都需要进行大量的计算来生成回复。为了保持快速的响应时间和流畅的交互体验,需要有足够的计算能力来支持这些运算。GPT模型还可以通过增加模型规模来提升生成质量。更大的模型通常具有更强大的语言理解和生成能力,但也需要更多的计算资源来进行训练和推理。如果希望提高GPT模型的性能和效果,需要投入更多的算力。GPT模型对算力有较高的需求。它需要强大的算力支持来进行模型训练和推理,以提供高质量和流畅的对话生成体验。
-
宰文功露2020年,离开地平线的吴强选择自主创业,他认为,存算一体技术是AI芯片的新方向,对于长期被“卡脖子”的国产芯片厂商来说,存算一体芯片可能是国产芯片算力弯道超车的绝佳机会。同年11月,后摩智能成立,吴强组建了自己的团队,誓要亲身参与这场属于国产阵营与海外阵营的算力大战。创业,吴强盯准了一个趋势——国产替代。在芯片短缺越演越烈的那几年,国产化替代的诉求越来越高,特别是车规级芯片,成了整个产业供应链的刚需,这无疑给国内创业者提供了千载难逢的超车时机。刚过去的5月10日,后摩智能发布了第一款大算力存算一体智驾芯片鸿途H30,并将智能驾驶作为落地场景。吴强的团队,终于在大算力存算一体芯片领域迎来产品级的发布,这也是国内首款存算一体的智驾芯片。第二成长曲线经济学里的第一曲线,指的是企业在熟悉环境里开展传统业务所经历的生命周期,第二曲线则是面对新市场、新变革所经历的生命周期。英国管理学大师查尔斯·汉迪(Charles Handy)用“第二理论”给转型升级传递了相似的思路:为了向前发展,必须在改革中开辟一条完全不同的新道路,对熟悉的问题要有新视角,也就是托马斯·库恩(Thomas Kuhn)所说的“范式转移”。每一个行业都将面临经济学里的第二曲线,特别是身处算力军备赛的芯片领域,更是在海量算力需求里经历着第二曲线的突围与探路。颠覆芯片的底层架构设计,存算一体,正是突破算力瓶颈、摆脱存储宽带限制的一条路径。关键词之一,是顺势。大部分读者都知道,算法、算力和数据是大模型时代的三大基础要素,ChatGPT引爆了算力要求的“核聚变”。当摩尔定律已经被逼近物理极限,如何突破算力瓶颈已成为业界重点突围的方向之一,因为模型计算量的增长速度,已经远超AI硬件算力增长速度。延伸到智驾领域,当汽车迎来智能化新时代,高级别的自动驾驶对算力有非常严格的需求,特别是到了L4,算力要求已达到1000T以上,且伴随着Corner Case的增加,算法模型增大,更具复杂性,算力的需求也随之攀升。关键词之二,是破局。经典的冯诺依曼架构里,数据从处理单元外的存储器提取,处理完之后,再返回存储器。基于冯诺依曼体系结构的算力相对简单,且CPU和存储器之间存在巨大的速度差,抵达一定的极限后,存储器就很难跟上运算部件消耗的数据了。量产阶段的困局体现在:(参考:《量子位·存算一体芯片报告》)-即使芯片制程更加先进了,但对于制造商来说还是投入产出比极低,研发与生产成本上去了,性能提升却往往不如人意。-集成电路尺寸进一步缩小,芯片的可靠性也受到挑战,诸如由“短沟道效应”和“量子隧穿效应”等引发的芯片漏电。-先进工艺下尽管芯片拥有大算力,但同时也产生了高能耗,对于功耗敏感的应用场景,先进制程不占优势。芯片行业一直有这样一种说法,冯诺依曼的架构思路既是一切现代计算机的基础,又是现代计算机难以绕开的桎梏。如何解开这层与生俱来的桎梏,突破计算单元与存储单元分离的缺点,成为很多芯片玩家努力的方向。何为存算一体?字面上来说,作为一种全新的计算架构,存算一体是在存储器中嵌入计算能力,将存储单元和计算单元合为一体,省去了计算过程中数据搬运环节,消除了由于数据搬运带来的功耗和延迟,提升计算能效。在吴强看来,将公司首款存算一体芯片应用于智驾,是一个非常漂亮的决定。因为在技术和产品匹配的角度,这颗芯片带来的优势,和自动驾驶的关键需求是天然吻合的,可实现极致能效比和超低延时,让底层的芯片更好地扮演着人类大脑的角色。一个,是打破存储墙。面对存储墙、带宽墙和功耗墙等挑战,存算一体芯片能成百上千倍地提高计算效率,从而降低成本,消除不必要的数据搬移延迟和功耗,这也是较多核并行加速技术更为颠覆的地方。另一个,是算力与能效。计算直接在存储器内完成,可提供大于1000TOPS以上的算力和超10-100TOPS/W的能效。通俗一点讲,就是在面积不变的基础上,翻倍增加计算核心数,数据层面,成几何式提升。256TOPS & 35W昨日,后摩智能正式发布了旗下首款存算一体智驾芯片——鸿途H30,最高物理算力达到256TOPS,典型功耗35W,这也意味着,国内科技公司自研资产的存算一体大算力AI芯片,终于在智驾领域落地了。“是物理算力,不是稀疏虚拟算力。”吴强手里拿着一颗H30,向大家介绍该芯片的核心指标。他特意强调,256TOPS是物理算力,并不是大家平日里提及的稀疏虚拟算力,这也意味着,H30目前创造了国内之“最”,即国产智驾芯片里物理算力最大的产品。有种“一览众山小”的俯视感,且弄出这样一颗芯片,后摩智能只用了短短两年的时间。优势不止于此。256TOPS的算力,功耗只需要35W,这也意味着,其能效的数据更是“吊打”一众国内的智驾芯片产品。地平线CEO余凯曾感慨,尤其是在智驾芯片领域,属于寡头性非常强的领域,到后来,大部分玩家都会陪跑,最终能跑出来的公司屈指可数。虽然我们看不清赛道的终局,但从目前来看,作为只有两岁的创业公司,后摩时代的成绩是可圈可点的。还有一些数据参数:性能指标——后摩智能用H30与英伟达的产品相比,在Resnet50下,前者Batch=8达到10300帧/秒的性能,是后者的2.3倍;而在Batch =1时,前者性能达到8700帧/秒,后者仅为1520帧/秒,是英伟达的5.7倍。计算效率——H30在上述相同的比较维度,Batch = 8的情况下,计算效率达到294FPS/Watt,是英伟达的4.6倍,Batch=1时,这一数字更是高达11.3 倍。这里还有一个细节。吴强曾在一次交流中表示,存算一体是架构的创新,而工艺则是另一个维度的事情。好工艺肯定是好事,后摩智能也在用先进工艺,但是对存算一体来说,对先进工艺依赖度其实是比较低的。事实确实如此。这正是后摩智能的优势所在。H30是基于12nm工艺制作的,但是英伟达的却是8nm,这也可以看出,如若两家公司的产品工艺处于同样的节点,来自后摩智能的产品势必效率更高。后摩强调的,是架构。决定H30拥有上述优秀数据的核心,是后摩智能面向智能驾驶场景自主研发的第一代IPU(Intelligence Processing Unit)——天枢架构。它是新产品拥有超越同级性能的“幕后功臣”在它的指导下,H30提升了两倍性能,功耗降低了约50%。演讲台上的吴强用了这样的比喻:特斯拉的FSD,是堆积计算,就像一个四合院子,房子的主人最大限度地利用了面积,堆放了日常用品,且房屋构造利用率极高,但这里的面积还是有限,想无限扩大社交范围,非常困难。后摩智能则不同,它是中式庭院和西式高楼的组合,同样是四合院大小的面积,通过西式高楼,不同楼层有自己的公布布局,且高楼内部协调性极佳,就像一个综合办公楼,大家可以在最小的用地面积上实现最大范围的社交功能。落地元年吴强曾在此前的中国电动汽车百人会论坛上预测,2023年将是国内存算一体智驾芯片商业落地的元年,他用自己率先落地的H30,打响了细分赛道鸣枪开赛的第一声。《NE时代》翻看了吴强此前在公开场合提及的产品研发心路,在存算一体高算力芯片落地的过程中,他和团队也经历了诸多困难。一如,散热。存算一体,除了大算力的需求,汽车智能化和电动化又带来了功耗、散热、成本和自主可控等难题。他的团队确实在其中克服了很多障碍,如何在大算力的同时又能做到低功耗,保证自然散热。他希望用存算一体的架构在做到自然散热的情况下,可以做到算力2-3倍的提升,这是存算一体赋予的能力。二如,存储介质。从产业链的角度来说,存算一体依赖于存储介质工艺,后摩智能目前的产品是基于SRAM,下一代产品则计划基于其它一些存储机制,例如MRAM和RRAM。存储工艺又依赖于上游厂商,如台积电这样的公司,但目前RRAM在台积电的成熟度属于风险等级,距离完全量产大约有1-2年时间。这是产业链的依赖,虽然有风险,但不得不经历。三如,技术转移。存算一体,之前很长一段时间,业界几乎是以学术研究的方式在做,但从学术到商业量产还有一定距离。后摩智能和其他一些创业企业,更多是按照商业量产的标准去做,过去两年都在不断探索中试错。具体怎么做量产,怎么做DFT(Design for Test,即可靠性设计),怎么做冗余,怎么做自修复,这些都是公司要解决的问题。四如,验证与磨合。CPU、GPU和AI芯片等“大芯片”赛道,从创业的角度看,这类芯片烧钱多、周期长,很难快速上量,但是技术壁垒更高、增长空间更大,且客户黏性强。做出原型验证芯片之后,公司还有很多工作,就智能驾驶芯片来看,进入汽车产业的配套环节,也需要较长的验证与磨合周期。他曾在接受媒体交流时表示,创业初期,他自己曾经也迷惑过。因为看到一些创业企业还没量产,就开始有资本运作筹备上市,这样的信号,他会怀疑自己,这种从底层技术产品开始的创业方式是不是太保守了——半导体是一个需要技术沉淀和积累的行业,跳来跳去,怎么能有真正的技术积累和能力提升?事实说明,他的怀疑和自省都是对的,而对于两岁的后摩智能来说,率先落地第一颗存算一体智驾芯片,也只是万里长征的第一步。毕竟,大家都看到了趋势,被时代裹挟着向前,对手们也没有闲着。【本文来自易车号作者NE时代,版权归作者所有,任何形式转载请联系作者。内容仅代表作者观点,与易车无关】
-
濮阳星行朋终于拿到长城体系外订单“我们还在等他们(毫末)的车交付之后,才能做技术上的对标。” 同为量产高阶智驾方案的某车企工程师这样评价毫末。这一对标将在今年初见分销。4月11日,在第八届AI DAY上,毫末发布了一个堪比BEV的新技术:自动驾驶生成式大模型DriveGPT——雪湖·海若。2021年特斯拉用一个BEV架构模型搞定了自动驾驶的感知,而雪湖·海若Transformer则有望用一个模型解决自动驾驶的认知问题。雪湖·海若将依次搭载在魏牌摩卡DHT-PHEV和蓝山上,首批落地在北京、保定、上海等城市,并于2025年开拓100个城市。毫末宣布与三家主机厂签订了定点合作协议,其中包括长城体系外的品牌。新技术范式、百城大战,毫末的“野心”要如何实现?01一次解决所有问题“(雪湖·海若)使我们在一个统一的生成式框架下,将规划、决策和推理等多个任务全部完成。”毫末智行CEO顾维灏在采访中表示:“(雪湖·海若)在更大数据的支持下,还是会让(自动驾驶系统的决策能力)有一个质的提升。这一新技术范式即使放眼全球也是非常独特和创新的。”认知架构雪湖·海若和感知架构BEV一样,旨在通过一个大模型一次性解决问题。在BEV之前,自动驾驶系统的感知是在各传感器端先进行感知,之后由多个小模型算法进行置信判断和融合之后,输出最终的感知结果。BEV则是一次性“吸收”所有传感器的原始数据,之后直接输出车辆周围360°的完整空间感知结果。决策方面,目前业内主要包括预测、规划、控制几个环节:基于感知结果,通过搜索等方法划定出可行使空间,再在其中根据自车和其它交通参与者可能的行动轨迹进行路线规划,最终决定出一条行驶路线,并将行驶路线分解为车辆动作命令传给执行器。雪湖·海若则是基于感知结果,直接给出规划控制结果和理由:一次性生成多个未来可能发生的全局场景,并且按照可能发生的概率排序;生成自车未来的轨迹信息;直接给出决策逻辑链。例如在一个包含对向来车、左侧电动车、右侧过路行人的无保护左转的场景中:传统方法是先对与自车最有可能交互的对向来车进行轨迹预测,基于预测结果判断自车应该的行驶轨迹。此轨迹如果涉及到电动车/行人等其它的交通参与者,则加入考虑后预测,再判断轨迹,如此往复。但雪湖·海若是一次性看到路面的全局情况,基于预训练积累的“经验”,直接得出:对向来车已出线刹车概率低、电动车虽然未出线但惯于抢行、行人在路口通常谨慎行动变。如以安全为先,应当缓慢起步,让行电动车后,快速通过路口。之所以出现这样不同的“思考”方式,在于传统方法和雪湖·海若在短期数据和长期知识上存在不同。短期数据即当时当刻的路面情况。由于目前决策大都使用参数有限的小模型,因此一次性能考虑的对象便相对有限。雪湖·海若作为大模型,在云端参数高达1200亿个,由此在学习时能够做到全局思考。目前毫末未透露部署到车端时的参数规模。长期知识则是交通规则和常识性的潜规则。目前主流决策层算法仍以逻辑判断为主,对于“谁会如何”更多还是出自工程师经验。雪湖·海若则是先在4000万量产车驾驶数据中进行学习,又用5万个经过筛选的人类接管数据做反馈训练,最终习得开车的知识和常识,能够更加类人的,根据当前交通情况推理出未来各类交通场景以及出现的概率。对于神经网络作为黑盒,思考过程的不可解释化,毫末技术负责人艾锐向《赛博汽车》表示,通过添加限定规则,可以一定程度上解决这一问题。在决策层引入GPT模型只是开始,未来毫末计划将雪湖·海若扩大为端到端的自动驾驶系统模型,即用一个大模型解决感知、认知的所有问题。中国自动驾驶逻辑芯片企业地平线也持类似的观点。前不久,地平线作为第一作者发布了基于Transformer的自动驾驶端到端算法框架论文,首次将检测、跟踪、预测、箭头轨迹预测等多个模块用一个完整神经网络架构完整解决。“让我们有可能像ChatGPT那样,用端到端的大规模的数据去训练整个的自动驾驶系统。”地平线创始人&CEO余凯在演讲中表示。02万事俱备,只待上车一次解决所有问题,当然很棒,但却鲜少有玩家实践该技术。在2022年的AI DAY和今年的投资者日上,特斯拉展示的预测算法仍是以蒙特卡洛树搜索为主。小鹏汽车自动驾驶副总裁吴新宙则在4月明确表示,未来小鹏将在预测层面引入神经网络,但在规控层面,仍将以逻辑算法为主。“我对团队有一个明确的线,能用数学方法解决的问题,都先用数学的方法。”即使想要应用,GPT也不是普通玩家玩得起的。华为云人工智能领域首席科学家田奇在近日的演讲中表示,大模型开发和训练一次需要1200万美元。而且并不只是“钱”的事。雪湖·海若作为GPT(Generative Pre-trained Transformer)生成式预训练大模型,需要有大规模语料库来进行训练。顾维灏在演讲中表示,雪湖·海若的一个关键设计是将场景Token(令牌,代表执行某些操作的权利对象)化表达:将驾驶空间进行离散化处理,每一个Token都表征场景的一小部分。如果输入一连串过去已经发生的场景Token序列,模型可生成未来所有可能的场景。目前毫末Token的词表空间是50万个左右。大模型还需要超算中心来训练。1月,毫末发布了670PFLOPS算力的超算中心——雪湖·绿洲。若按照一块19.5TFLOPS算力的英伟达A100计算,则绿洲或用了34.3万块英伟达A100。绿洲还针对海若进行了针对性的升级改造。一是建立全套训练保障框架,避免因个别服务器异常可能导致的训练中端;二是升级弹性调度资源的能力,使训练平台能够自适应每天回传数据不同的大小规模;三是吞吐效率的升级,通过算子融合端到端吞吐提升84%。但就像ChatGPT和GPT4仍依赖于对话者不断调整问题问法,扩大数据库调用权限,才能表现得更加真实类人一样。雪湖·海若要做到真正高速类人,在并行效率、算力需求、功耗等方面超过搜索等传统方法,甚至超过人类表现的前提,是源源不断的真实道路场景和人类反馈。03毫末的身份突围2022年底,小鹏、华为、毫末三家抢跑城市领航功能落地。从结果来看,小鹏、华为都已有了搭载城市领航功能的车队上路,毫末HPilot 3.0所搭载的新摩卡DHT-PHEV预计将于本月推出,而魏牌蓝山要到三季度才会推出激光雷达版。与此后来者也正逐步逼近,蔚来、理想等车企,和轻舟智航等智能驾驶供应商都已宣布了2025年落地高速、城市领航功能的计划。之所以形成这样的局面,与毫末的身份不无关系。毫末虽然出身长城,却无法像蔚小理的智驾团队一样,拥有自上而下的话语权,更多还是相对独立的供应商身份。但背靠长城又使毫末的供应商身份不那么纯粹。对于出自ICT行业的华为,车企都尚且顾忌灵魂。出自同行的毫末作为供应商,自然也少不了被挑剔。如何实现身份突围?今年年初,毫末推出了包括全栈解决方案、云端服务、硬件、软件、模块、原型代码六个层面的6P开放合作模式。合作伙伴不仅可以获取毫末的功能产品,甚至可以获得原型代码这样的底层技术能力。“您的灵魂您保留,我的灵魂您带走。” 毫末智行COO侯军表示:“(智能/自动驾驶)全栈自研是高成本、长周期的事情。毫末的6P开放模式帮助主机厂在不具备技术和时间的情况下参与竞争。如果之后毫末的综合性价比能力赶不上合作伙伴进步的灵魂,我们被淘汰也是正常的。如果能赶上,我们愿意与合作伙伴长期携手同行。”这样“白盒”开放的态度已经起到了效果,毫末已与三家主机厂签署定点合同,其中包括长城体系外的品牌。在毫末的生态伙伴当中,除了高通这样的老朋友外,还多了英伟达、华为、地平线这样新朋友,未来合作方向值得玩味。毫末在2025年的百城计划也绝非说说而已。华为、小鹏的城市领航功能在核心区域仍需依靠高精地图。而毫末的方案则完全不采用高精地图,只用类似导航地图的标清地图,以感知信息的置信权重远高于地图信息,即所谓重感知轻地图方案。要完全依靠感知信息做判断使毫末目前的城市领航功能更显保守,安全性要求远高于舒适和通行效率。但由于完全不依赖高精地图,所以毫末HPilot 3.0的开城将不受地图资源限制,随着其感知能力打磨得愈发完善,开城速度也将愈发加速。顾维灏在演讲中表示,毫末的视觉自监督大模型感知性能已提升20%。例如鱼眼摄像头在15米范围内的测量精度已达到30厘米,2米内精度可以高于10厘米。因此毫末正考虑取消超声波雷达,直接使用鱼眼镜头做泊车功能。技术进步也正成为毫末作为供应商,持续降本的底气所在。毫末智行张凯表示:“未来(降本同效的策略)对我们和行业发展,都会有很好的推动作用。”【本文来自易车号作者赛博汽车,版权归作者所有,任何形式转载请联系作者。内容仅代表作者观点,与易车无关】
-
宗霭影玲2023伊始,先是开年毫末智行举办HAOMOAIDAY,放出自动驾驶行业最大智算中心,再有小鹏、理想新春全员信剑指城市导航辅助驾驶,随后是对话式AI大模型ChatGPT火遍全网,自动驾驶AI技术再次成为顶流。无论是自动驾驶的“进城”,还是ChatGPT的“进化”,其背后都是对数据、算力需求指数级增长的态势以及对大模型的训练。当需求上来了,智算中心作为自动驾驶的“新基建”也就被业界越来越多的提及。智算中心即智能计算中心,是基于人工智能理论,采用领先的AI计算架构,提供人工智能应用所需算力服务、数据服务和算法服务的公共算力新型基础设施,换句话说,智算中心其实是一个算力的供应和生产平台。那为什么有了它“自动辅助驾驶”就可以变为“自动驾驶”了?“降服”自动驾驶边际成本 自动驾驶智算中心“专云专用”有人说,智算中心是自动驾驶发展的助推器,因为自动驾驶算法模型训练是机器学习的典型场景之一,其视觉检测、轨迹预测与行车规划等算法模型需要同时完成高并发的并行计算,对算力有着极高的需求,而智算为提高算法模型的成熟度提供了巨大的算力。在自动驾驶领域,说起智算中心,还得先提特斯拉。2017年,Transformer网络出现后,奠定了当前大模型领域主流的算法架构基础,随后,2020年,特斯拉将Transformer大模型引入自动驾驶领域中,是AI大模型应用于自动驾驶的开端。在这之后,特斯拉开始着手打造属于自己的AI计算中心——Dojo,总计使用了1.4万个英伟达的GPU来训练AI模型。为了进一步提升效率,特斯拉在2021年发布了自研的AI加速芯片D1,并计划将25个D1封装在一起组成一个训练模块(Training tile),然后再将训练模块组成一个机柜(Dojo ExaPOD)。最近一期的特斯拉AI DAY上,马斯克称将于2023年一季度部署完成特斯拉超级计算机群组ExaPOD。国内方面,2022年8月,小鹏汽车和阿里云合建了当时国内最大的自动驾驶智算中心“扶摇”,专门用于自动驾驶模型训练,算力规模达600PFLOPS,相当于每秒可以完成60亿亿次浮点运算。不过这个记录仅仅维持了4个多月。今年1月,毫末智行联合火山引擎,共同推出自动驾驶行业最大的智算中心MANA OASIS(雪湖·绿洲),每秒浮点运算达67亿亿次,存储带宽每秒2T,通信带宽每秒800G。吉利也在1月28日上线了吉利星睿智算中心,目前已接入智能驾驶和车联网实验数据近百PB,在线车辆的并发计算支持达百万辆。从现有情形来看,成本和需求两重因素,是智算中心的诱人之处。成本层面,算力作为自动驾驶的基本要素,需要更高性能的智算中心来完成训练、标注等工作。以毫末的MANA OASIS为例,通过部署Lego高性能算子库、ByteCCL通信优化能力,以及大模型训练框架,软硬一体,毫末把算力优化到极致。在训练效率方面,基于Sparse MoE,通过跨机共享,轻松完成千亿参数大模型训练,且百万个clips(毫末视频最小标注单位)训练成本只需百卡周级别,训练成本降低100倍。搭建高效、低成本的数据智能体系是自动驾驶技术健康发展的基础,也是自动驾驶系统能够不断迭代前行的重要环节,更是自动驾驶商业化闭环的关键所在。小鹏汽车董事长何小鹏曾表态,“如果现在不以这样的方式(智算中心)提前储备算力,那么今后5年内,企业算力成本会从亿级,加到数十亿级。”如果持续使用公有云服务,边际成本不断上涨只是一方面,更重要的是,智算中心可以让自动驾驶企业实现“专云专用”。自动驾驶的开发包括从数据采集到数据筛选、打标、模型训练、回放性验证、仿真测试等等环节。而云计算的本质是租赁计算设备,云服务商的设备都是统一采购,为了获得更多客户,这些设备都具备很大的通用性,设备内部使用的CPU、GPU/AI加速器、内存的型号与规格都相对固定,很难与车企和自动驾驶公司的算法形成最佳匹配。云服务厂商对自动驾驶算法的了解程度不高,不可避免的会在调度算力时出现损耗和效率不高的问题。从需求的角度来看,智算中心似乎可以成为自动驾驶和车企的托底神器。同样以毫末为例,有了MANA OASIS的加持,毫末MANA五大模型全新亮相升级,车端感知架构实现跨代升级,毫末的技术栈布局继续保持完整领先的态势,尤其在感知、认知等层面领跑行业,引领大模型、大算力、大数据发展方向,冲刺进入自动驾驶3.0时代。拿数据采集、筛选和标注来说,自动驾驶系统在前期开发阶段,需要采集大量的道路环境数据,以此让车辆像人类驾驶员一样快速准确地识别车道、行人、障碍物等驾驶环境中的关键信息。唯一的办法是,通过在海量数据基础上不断的重复训练与验证,车辆对道路环境的认知水平逐渐趋近于真实情景,判断的准确性在这一过程中不断提升。车企收集到的数据还需要进行模型训练,算法通过在数据上进行运算产生模型,而智算中心将是驱动大模型和海量数据训练的加速器。基于Sparse MoE,毫末根据计算特点,进行稀疏激活,提高计算效率,实现单机8卡就能训练百亿参数大模型的效果,实现跨机共享exper的方法,完成千亿参数规模大模型的训练,训练成本降低到百卡周级别;毫末设计并实现了业界领先的多任务并行训练系统,能同时处理图片、点云、结构化文本等多种模态的信息,既保证了模型的稀疏性、又提升了计算效率;MANA OASIS训练效率提升了100倍。毫末智行CEO顾维灏也在详细阐释了建设智算中心的底层逻辑:“自动驾驶对智算中心的第一要求肯定是算力。智算中心的超大算力代表了有多少的AI工程师在这个练武场中能够做出什么大模型,能训练多少大模型。”智能辅助驾驶“进城” MANA OASIS帮助毫末解决了哪些难题?现在很多车企和自动驾驶技术企业已经开始把打造智算中心当成下一阶段竞争重点。今年1月的HAOMO AI DAY上,毫末智行董事长张凯给出了2023年自动驾驶行业趋势的十大新预测,超算中心赫然位列“超算中心会成为自动驾驶企业的入门配置。”当下,随着新能源汽车品牌普遍已经把高速公路场景下的辅助驾驶列为标配,赛场已经悄然从高速路转向城市。与高速导航辅助驾驶相比,城市行车涉及了红绿灯、十字路口、行人电动车、遮挡、固定障碍物、频繁刹停起步等一系列难题,复杂度又提升了好几个数量级。如果仅用实测车辆去挑战这些城市场景无法穷尽的Corner Case,成本、安全性、时间都将成为企业发展的壁垒。由此,虚拟仿真就成为了解决部分成本及场景多样性的关键,大规模的长尾场景需要数据中心提供充足的算力支持。仿真场景对现实的回归过程,同样需要巨大的算力提供支持。在MANA OASIS的加持下,毫末的数据智能体系MANA五大模型全新亮相升级。而在五大模型助力下,MANA最新的车端感知架构,从过去分散的多个下游任务集成到了一起,形成一个更加端到端的架构,包括通用障碍物识别、局部路网、行为预测等任务,毫末车端感知架构实现了跨代升级。这也意味着毫末的感知能力更强,产品力更强,向全无人驾驶加速迈进。视觉自监督大模型,让毫末在中国首个实现4D Clip的自动标注。毫末利用海量videoclip,通过视频自监督方式,预训练出一个大模型,用少量人工标注好的clip数据进行Finetune(微调),训练检测跟踪模型,使得模型具备自动标注的能力;将已经标注好的千万级单帧数据所对应的原始视频提取出来组织成clip,其中10%是标注帧,90%是未标注帧,再将这些clip输入到模型,完成对90%未标注帧的自动标注,进而实现所有单帧标注向clip标注的100%的自动转化,同时降低98%的clip标注成本。毫末视频自监督大模型的泛化性效果极佳,即使是在一些非常困难的场景,例如严重遮挡的骑行者,远处的小目标,恶劣的天气和光照,都能准确地完成自动标注。3D重建大模型,助力毫末做数据生成,用更低成本解决数据分布问题,提升感知效果。面对“完全从真实数据中积累corner case困难且昂贵”的行业难题,毫末将NeRF技术应用在自动驾驶场景重建和数据生成中,它通过改变视角、光照、纹理材质的方法,生成高真实感数据,实现以低成本获取normal case,生成各种高成本corner case。3D重建大模型生成的数据,不仅比传统的人工显式建模再渲染纹理的方法效果更好、成本更低。增加NeRF生成的数据后,还可将感知的错误率降低30%以上,且数据生成可实现全程自动化,无需任何人工参与。多模态互监督大模型则可以完成通用障碍物的识别。毫末在成功实现车道线和常见障碍物的精准检测后,针对城市多种异形障碍物的稳定检测问题,毫末正在思考和探索更加通用的解决方案。毫末的多模态互监督大模型,引入了激光雷达作为视觉监督信号,直接使用视频数据来推理场景的通用结构表达。该通用结构的检测,可以很好地补充已有的语义障碍物检测,有效提升自动驾驶系统在城市复杂工况下的通过率。动态环境大模型,可以精准预测道路的拓扑关系,让车辆始终行驶在正确的车道中。在重感知技术路线下,毫末为了将对高精地图的依赖度降到最低,面临着“道路拓扑结构实时推断”的挑战。毫末在BEV的feature map(特征图)基础上,以标精地图作为引导信息,使用自回归编解码网络,将BEV特征,解码为结构化的拓扑点序列,实现车道拓扑预测。让毫末的感知能力,能像人类一样在标准地图的导航提示下,就可以实现对道路拓扑结构的实时推断。毫末认为,解决了路口问题实际就解决了大部分城市NOH问题。目前在保定、北京,毫末对于85%的路口的拓扑推断准确率高达95%。即便是非常复杂、非常不规则的路口,毫末也能准确预测,比老司机还老司机。人驾自监督认知大模型在今年2月已经被正式升级为DriveGPT,这也是全球首个自动驾驶认知大模型。它能让毫末的驾驶策略更加拟人化,安全及顺畅。毫末DriveGPT已完成模型搭建和第一阶段数据的跑通,参数规模可对标GPT-2的水平。DriveGPT将持续引入大规模真实接管数据,通过人驾数据反馈的强化学习,来不断提升测评效果,同时也将DriveGPT作为云端测评模型,用来评估车端小模型的驾驶效果。仿真测试能有效缩短技术和产品开发周期,降低研发成本。业内典型的长尾场景问题不够丰富,现实中可遇而不可求的极端场景,利用仿真平台可以便捷生成。由于仿真测试中的模拟环境需要实现多模态融合,以支持传感器模组的复杂性,因而也需要大算力的支持。除了毫末,特斯拉超算中心拥有近2万张GPU,对自动驾驶训练效率产生立竿见影的效果,最大限度地提升了自动驾驶系统的开发效率;大陆集团的高算力集群,将开发周期从几周缩短至几个小时,使自动驾驶得以在中短期商业计划中落实;机器学习时间的缩短加快了新科技进入市场的速度;“扶摇”支持小鹏自动驾驶核心模型的训练时长从7天缩短至1小时内,大幅提速近170倍……当前,一个不争的事实就是,在自动驾驶领域具有长期规划的车企,无论是造车新势力还是传统品牌,或者技术供应商,都在搭建自己的超算中心,以掌握稳定的算力资源,缩短开发周期,加快自动驾驶产品的上市。相反,如果没有超算中心,那么自动驾驶训练速度将明显放缓,自动驾驶企业间的差距也将愈发明显。用智算中心打造数据护城河 数字新基建逐步成为发展“标配”自动驾驶发展至今,业界发现乘用车智能辅助驾驶是最有可能大规模铺开的商业场景。据高工智能汽车研究院数据显示,2022年中国市场(不含进出口)乘用车前装标配搭载L2级辅助驾驶的搭载率,已经连续第二个月超过30%。智研咨询数据显示,预计到2025年,全球新车L2自动驾驶的渗透率可达53.99%。今年,城市导航辅助驾驶也开启了量产的征程。西部证券预测,2023~2025年,国内市场上搭载城市导航辅助驾驶的车型将分别达到70万、169万和348万辆,占比将分别达到17%、40%和70%。在城市导航辅助驾驶落地加速的背景下,更容易复制、拓展的重感知的方案,受到了更多关注。在重感知技术路线下,面对“道路拓扑结构实时推断”的挑战,毫末的选择是在特征图基础上,以标精地图作为引导信息,使用自回归编解码网络,通过结构化的拓扑点序列解码,实现车道拓扑预测。由此不难看出,业界逐渐达成共识的重感知路线,相比高精地图方案,更依赖算力加持。人工智能是创新的加速器,智算中心则可以为各类技术创新提供支撑。一方面,智算中心可以为构建安全可信、可复用的技术研发环境提供算力设施支撑,为各领域科技研发提供智能计算服务,加速科技研发的进程;另一方面,智算中心是新一代信息技术的集成应用载体,智算中心的快速建设推广与规模化应用将推动通信服务网络、大数据、人工智能等技术的快速迭代,从而促进技术创新。自动驾驶数据是片段式的,特点是小文件多,达到百亿个,而且训练需要交换的数据多,智算中心可以提供充足的带宽,并且可以让自动驾驶模型拥有更好的并行计算框架,在训练的时候把硬件资源都利用起来。2020年4月20日,国家发展改革委首次明确新型基础设施的范围,其中就包括以智能计算中心为代表的算力基础设施。2023年1月10日,国家工业信息安全发展研究中心推出《智能计算中心2.0时代展望报告》,指出经过5年多发展,智算中心正由1.0粗放扩张阶段走向2.0精细规划阶段。根据相关统计和测算,目前全国超过30个城市在建或筹建智算中心,未来5年我国智能算力规模年复合增长率将达52.3%。智算中心的创新发展,将进一步为人工智能夯实“算力底座”,成为带动人工智能及相关产业快速发展的新引擎。“我们测算,智算中心带来的成本优化是惊人的,将达到亿元级别。”这是今年1月,张凯提出的预测。从目前及未来的规划量产规模来看,毫末自建智算中心可节约巨额成本;其带来的效率提升也非常明显。人工智能发展很快,新的算法层出不穷,需尽快引入新的技术和模型,与此数据是智能化发展最大的驱动力,也占据了大量成本构成。用自建智算中心来打造数据护城河,不仅能够完善产业智能生态,更能让企业在智能化方面占据先发优势,智算中心作为数字新基建,未来势必将引领自动驾驶技术持续迭代升级。【本文来自易车号作者车业视界,版权归作者所有,任何形式转载请联系作者。内容仅代表作者观点,与易车无关】
-
顾宗倩环汤姆猫是一个虚构的动画角色,没有算力概念是他的特征之一。如果您所说的“算力”是指计算机的性能和算法方面的知识,那么汤姆猫显然不具备这些技能。汤姆猫是美国卡通制作公司汉娜-巴伯拉制作的卡通形象,它曾经是许多孩子们的最爱之一。汤姆猫是一只黑色的猫,常常和一只灰色的老鼠杰瑞展开斗争。汤姆猫并没有其他特殊的能力或技能,更谈不上和计算机算力相关的知识。没有算力概念。因为汤姆猫是卡通中的虚构角色,无法具备计算能力。虽然它有智商和思维能力,但它只是卡通形象,不具有实际的生命,也不具有算力概念。如果要进行计算和分析,需要使用计算机等工具才能完成。如果汤姆猫是一个nft的卡牌概念,运用了区块链技术,他就有价值空间,所以说他跟概念算力没有关系,但是他有价值空间,虚拟储存独特性,就有价值成长空间的存在意义。汤姆猫是动物。汤姆猫是没有算力概念的。人类才有算力概念,而且汤姆猫极其可爱,适合贵族人家饲养。一般他们的消费特别高。动物也需要爱护。是没有算力概念的。有算力概念。汤姆猫表示,未来随着数字经济的飞速发展,算力将成为社会经济中的必需品,在智能制造、智慧城市、智慧医疗、无人驾驶汽车等应用场景落地过程中,都将离不开庞大算力的支持。公司在积极探索汤姆猫家族IP优质内容与新兴科技融合的过程中,也对未来作为基础设施的算力枢纽保持持续关注。公司接入ChatGPT的API开展语音互动产品的开发,目前处于前期测试阶段,公司旨在验证相关技术与公司产品结合进行综合开发的可行性。在技术的可行性、产品应用场景及变现模式等产品细节进一步明确后,公司也将同步推进算力等基础设施以及自有数据模型的规划,与外部合作单位开展合作、自建团队、外包等多种方式均在公司考虑范围之内。后续的规划有赖于相关产品能否落地并开展商业化应用,公司目前仍将主要推进ChatGPT等相关技术与公司产品结合的可行性研究与测试工作。没有汤姆猫是没有算力概念的有如下这些,ChatGPT 概念、AIGC概念、CNFT概念、网络游戏、互联网、抖音、华为等。有算力概念。汤姆猫在数据存储与算力支撑等方面、通过设立全资子公司网络科技有限公司,建设液冷数据中心及配套自动化运维和云平台系统。1 不确定2 因为汤姆猫是一个虚构的卡通角色,没有真正的智能和思维能力,所以我们不能确定它是否具有算力概念。3 如果我们将问题修改为“在动画片《汤姆和杰里》中,是否出现过与计算机相关的场景或角色?”那么我们可以延伸讨论动画片中是否有计算机科技的内容。汤姆猫没有算力概念。其一方面在一个月内披露9份投资者关系活动记录,详细回答300多家机构对公司ChatGPT、AIGC等新技术在业务上的布局咨询;另一方面,筹划非公开发行股票的计划,欲将“会说话的汤姆猫”迭代成“会聊天的汤姆猫”。
-
应兰聪青不需要加速器。因为chatgpt的运行依赖于机器学习算法和服务器运算,而并非在本地设备上运行,因此不需要加速器提升本地设备的计算能力来优化运行速度。chatgpt的运行速度和响应时间也受到服务器的稳定性和网络环境的影响,因此加速器也不能完全解决速度和响应时间的问题。在现阶段的技术条件下,chatgpt的运行速度和响应时间已经能够满足一般的交互式对话需求,而未来随着技术的进步和网络环境的改善,chatgpt的运行速度和响应时间也将不断提升。不需要额外的加速器来提升chatgpt的运行效率。
相关推荐
更多-
CHATGPT有多么伟大 2个回答
-
ChatGPT写的内容会重复吗 2个回答
-
数字农业如何利用大数据 1个回答
-
人工智能圣诞是哪一天 1个回答
-
AI绘画的配音叫什么名字 1个回答
-
AI绘画我为谁谁发声 1个回答
热门服务
更多
最新问答
更多-
AI人脸识别的技术哪家好
2025-03-251个回答
-
人工智能恐怖的想法是什么
2025-03-251个回答
-
chatgpt华为手机支持吗
2025-03-257个回答
-
钢铁侠的人工智能反派是谁
2025-03-251个回答
-
大数据都需要什么人才呢
2025-03-251个回答
-
华为和苹果人工智能谁好
2025-03-251个回答
-
腾讯云大数据服务商有哪些
2025-03-251个回答
-
人类如何使用人工智能
2025-03-251个回答