《AI PC和AI手机市场分析.docx》由会员分享,可在线阅读,更多相关《AI PC和AI手机市场分析.docx(6页珍藏版)》请在优知文库上搜索。
1、AIPC和A1.手机市场分析一、PC/手机发展史及AIPC/手机必要性的探讨A1.PC/手机作为端侧相较于云端能够解决数据安全、延迟等问题A1.PC/手机作为端侧大模型解决方案,能够帮助解决数据安全及隐私泄露等问题。对个人用户而言,可通过访问本地数据形成其数字字生,大模型成为用户的个性化助理;对企业用户而言,可通过公司内网访问企业数据库以实现智能化协同办公。云端通用模型不具备服务某一领域的能力,需要接入数据后才具有专业能力,这意味着企业为获得行业模型,须将关键性资产一数据上传至云端,而一旦训练完成的模型被全行业共享,则意味着一定程度上企业竞争壁垒的消弭,由此催生出各企业在数据墙内训练专用模型的
2、需求,A1.PC/手机应运而生。绝大多数应用场景下用户对推理的时效性要求较高,在云端进行推理再将结果传回端和边缘因物理距离而不可避免存在延迟,A1.PC/手机宜接面向终端用户,因此能很大程度上缓解这一问题,为用户带来更好的使用体验。A1.PC/手机作为去中心化的服务模式能够帮助云端分担算力成本将大模型部署在端侧和边缘可能会带来公有云、私有云和本地数据中心市场需求,以及云、端和边缘算力的平衡。生成式A1.在诞生之初主要通过云端以付费API接口的形式向用户提供服务,过去市场对算力的关注多集中于云服务提供商以及大模型训练阶段,但云端算力相对有限,在高峰期难以满足所有用户的推理需求,因而提高端侧和边缘
3、算力,为推理加速成为市场新的焦点。通过智能终端(如A1.PC/手机)和边缘设备为云端分担算力成木或使云、端、边缘算力需求走向平衡。基于渗透率对A1.PC出货量及增置收入空间的测算我们基于渗透率对A1.PC的出货量进行测算,据Cana1.ys,2024年全年PC出货量预计将达到2.67亿台,我们参考这一数据对PC出货量进行情景假设,在四种不同情景下分别为2.4/2.6/2.8/3.0亿台:同样对A1.PC渗透率进行情景假设,在七种不同情景下分别为5%10%20%30%40%50%60%o通过测第可知,A1.PC出货量区间为0.12180亿台。对A1.PC的提价水平进行假设,在A1.PC提价100
4、0元/台和1500元/台两种不同情景下的增量市场空间分别为1201800亿元及1802700亿元。二、从硬件角度看A1.PC/手机潜在的投资机会GPU发展史:诞生于专用性需求,作为辅助处理器执行并行计算任务像处理催生出专用处理器需求,GPU的设计初衷正是为了应对批量同类任务的高并行执行,随着工艺的发展,GPU开始不断在个人PC以及移动设备上普及,甚至于随着其性能呈指数级增长,独显势头渐起。NPU:诞生于神经网络计算的需求,相较于GPU同时兼顾专用性和能耗比NPU(NworkProcessingUnit),即神经网络处理单元,可在电路层模拟人类神经元和突触,并用深度学习指令集宜接处理大规模的神经
5、元和突触,一条指令完成一组神经元的处理。相较于CPU和GPU的冯诺依批结构,NPU通过突触权重实现存储和计算一体化,从而提高运行效率。NPU是ASIC芯片的一种,目前主要应用于深度学习和机器学习等人工智能任务。骁龙8Gen3让手机运行大模型提速,骁龙X日ite助力高通切入A1.PC赛道高通在2023骁龙技术峰会上发布用于A1.手机的骁龙8Gen3和用于A1.PC的骁龙XE1.ite,率先成为同时抢占生成式A1.应用落地的两个端侧赛道的芯片厂商。就手机端而言,搭载了骁龙8Gen3的手机运行StabIeDiffUSion模型,只用0.6秒即在本地生成了一张图像,其相较于骁龙8Gen2的15秒很大程
6、度上优化了移动终端生成式A1.的推理速度:就PC端而言,高通开创性地推出骁龙XE1.ite平台,该处理器不仅拓展了生成式A1.应用的广度,也是高通强势切入PC市场的重要举措。PC搭载NPU成为A1.PC时代开启的篁要标志,叠加VVindoWS系统迭代或将带来换机潮NPU作为人工智能相关任务专用引擎成为PC的核心零部件之一为AIGC在端侧落地打开可能性,是A1.时代PC产品的重要革新。NPU相较于GPU拥有更优的能耗比,这意味着随着NPU在PC上普及,其与GPU的分工或将更加明确。此先作为图像处理专用芯片的GPU亦常用于深度学习相关领域,对矩阵加乘的并行计算能力使GPU在NPU之前一宜是A1.模
7、型训练和推理倚赖的重要硬件单元。随着Transformer成为1.1.M的主流架构,并将CV和N1.P这两个研究分支统一起来,神经网络成为构建A1.模型的基本单元,NPU作为张量处理器能够在更短的时间内完成大规模神经网络计算任务,因而其相较于GPU是更适合人工智能相关任务的加速引擎。NPU将作为端侧重.要的基础设施之一为PC端搭载大模型提供前提条件,其普及标志着A1.PC时代的来临。为支持端侧运行高规格大模型,A1.PC的散热模组可能会迎来重构散热能力是高算力芯片的一个主要瓶颈,随着搭载在A1.PC和A1.手机上的模型规格不断提升,NPU性能释放可能会更加激进,为配合硬件升级,相较于传统PC/
8、手机,A1.PC/手机可能会给出全新的散热解决方案。从数据中心来看,关键痛点是耗电和散热,在芯片的有限体枳内,如何将高集成、高能量密度产生的热值和热效应准确计算并顺利排出,已经成为多源异构芯片3D封装中最具挑战性的问题。目前的消费电子终端,手机方面,不锈钢VC均热板开始逐渐取代铜VC均热板成为散热主力;PC的散热方案一般以组合的形式呈现,而散热模组(Therma1.Modu1.e)从结构上看主要包括散热底座、热管、散热鳍片、散热风扇等物件。大模型在端侧落地或使A1.PC/手机厂商成为这一服务模式下的流量入口大模型在端侧落地的主要受益方包括硬件(以NPU为主)设计制造商、大模型提供商以及终端设备
9、(A1.PC/手机)厂商,其中终端设备厂商作为唯一直接面向C端用户的角色,可能会成为这一服务模式下的流量人口。三、A1.PC/手机产业链重点公司分析联想集团I率先推出首款A1.PC概念机,预计将于2024年下半年推出2023年10月,联想集团在第九届联想创新科技大会上展示了其人工智能个人电脑(A1.PO产品,该产品预计将于2024年下半年推出。据联想官方,其A1.PC能够创建个性化的本地知识库,并通过模型压缩技术运行个人大模型,实现用户与人工智能的臼然交互。联想集团I发布A1.Phone和功能性产品A1.Twin,后者同时赋能个人与企业用户就个人用户而言,A1.TWin被定义为用户在数字世界的
10、延伸,其本质上是基于本地知识库生成的屈于个人的专有大模型,其能够在最大范围内了解用户的思维方式并给出解决方案。由于A1.TWin只会被存储在本地化的设备或家庭服务器上,个人数据不会被共享或上传至公有云平台,因此用户的个人隐私和数据安全能够得到有效保护:企业级A1.TWin涵盖一系列企业级人工智能应用,其能够打通企业内部各类智能设备、边缘和私有云,联动各种企业级软件,综合和分析各类信息并给出最优建议。例如,企业级A1.TWin可以综合考虑企业的差旅政策、审批流程与员工的个人信息和偏好,为用户指定一个合理的计划。小米:计划在终端接入轻量化本地大模型,与WPSA1.达成深度合作2023年4月,小米组
11、建了A1.大模型团队,在手机端测试了13亿参数的模型,同时小米语音助手“小爱同学”开始大模型版本内测,成为小米大模型的第一个应用。2023年8月,小米最新的一个13亿参数的大模型已经成功在手机本地跑通,部分场景可以媲美60亿参数模型在云端运行的结果:此外,小爱同学月活已超1.1亿,并升级A1.大模型能力,开启邀请测试。2023年10月,WPSA1.在小米14系列手机新品发布会上亮相,小米14系列手机用户可通过小米社区下载搭载WPSA1.功能的专属版WPS.,在小米14系列手机上,WPSAI支持输入主题一键生成PPT演示文稿,并且可以提供进一步细化调节的功能。2023年10月,小米14系列首发骁龙8Gen3Humane:推出专为与大语言模型交互而生的新式可穿戴设备A1.Pin2023年11月9日,Humane正式推出A1.Pin,后者是由OPenA1.提供技术支持的可穿戴设备,专为与大语言模型交互而设计。该设备允许用户通过说话来拨打电话、发送短信和搜索信息,还拥有激光显示屏,能够宜接将手掌变成一个迷你屏幕,起售价$699,