云原生人工智能白皮书.docx

上传人:王** 文档编号:1324211 上传时间:2024-06-18 格式:DOCX 页数:24 大小:131.75KB
下载 相关 举报
云原生人工智能白皮书.docx_第1页
第1页 / 共24页
云原生人工智能白皮书.docx_第2页
第2页 / 共24页
云原生人工智能白皮书.docx_第3页
第3页 / 共24页
云原生人工智能白皮书.docx_第4页
第4页 / 共24页
云原生人工智能白皮书.docx_第5页
第5页 / 共24页
云原生人工智能白皮书.docx_第6页
第6页 / 共24页
云原生人工智能白皮书.docx_第7页
第7页 / 共24页
云原生人工智能白皮书.docx_第8页
第8页 / 共24页
云原生人工智能白皮书.docx_第9页
第9页 / 共24页
云原生人工智能白皮书.docx_第10页
第10页 / 共24页
亲,该文档总共24页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《云原生人工智能白皮书.docx》由会员分享,可在线阅读,更多相关《云原生人工智能白皮书.docx(24页珍藏版)》请在优知文库上搜索。

1、云人工智能(CNAI)简介在我们进入CNAl之前,将CloudNative和Al技术结合在起,让我们简要地研究下每种技术的演变。云原生的出现自2013年以来广为人知,5随着容器技术从1.XC6到Docer7再到Kberetes(K8s)的兴起,ClodNative(CN)一词越来越受欢迎8如今,CiodNawe更广泛地成为使用微服务设计模式构建的平衡系统的理想目标,该模式可促进模块化设计和开云原生计算基金会定义9云原生为:CIoUdNatiVe技术使组织能够在现代动态环境(如公共云、私有云和混合云)中构建和运行可扩展的应用程序。容器、服务网格、微股务、不可变基础设施和声明性APl就是这种方法的

2、例证。这些技术使松散耦合的系统具有弹性,可管理和可观察性。结合强大的自动化,它们使工程师能够以最少的工作量频繁且可预溺地进行高影响的更改。云原生计算基金会寻求通过培育和维持一个开源、供应商中立的项目生态系统来推动这一范例的采用。我们将最先进的模式民主化,使每个人都能获得这些创新。云原生人工智能是云原生的一个不断发展的扩展。CloudNativeArtificialIntelligence(CNAI)是指使用CIOUdNative原理构建和部署Al应用程序和工作负载的方法和模式。启用可重复且可扩展的Al工作流,可让Al从业者专注于自己的领域。Kberetes已经发展成为事实上的云操作系统,包括私

3、有、公共和混合云产品。它实现了一个分布式编排器,用于处理多种类型的网络、存储和计算资源。此外,K8s提供了一个接口,使DevOpsIO的最佳实践,如GitOps.11每个云服务提供商(CSP)都有些KbereteS服务的味道,便于访问基础设施和系列支持服务来运行各种工作负载,包括Al/M1.o人工智能的进化人工智能,最早在1956年被称为一个术语,12是机器模拟人类智能的能力。几十年来,它已被用于语音识别,机器翻译,图像处理,游戏等应用,甚至是作为危险玩家的出色表现。13但是,由于人工神经网络和深度学习的创新,人工智能最近在midshare中爆发了,主要应用于自然语言理解。Al有两种主要分类:

4、判别性和生成性。八/判别式Al寻求学习决策边界或分类,将知识捕获为“模型”,用于预测新数据。例如,将电子邮件分类为垃圾邮件,区分猫和狗的图像等等。判别Al通常用于已知所需输出的任务(例如ProCedre,通过监督学习,一种机器学习的形式)。人工智能擅长序列预测,例如,通过分析大量现有文本,包括我们的个人写作风格,以高概率猜测我们接下来要输入的内容。生成Al学习数据中的潜在结构或表示。它可以使用这些结构或表示来合成新数据,例如创建故事,音乐和视觉艺术来自单词提示。生成性Al用于所需输出未知或“正确”输出定义不明确的任务。使用生成性Al,Al己经超越了人类认为的创造性,原创性和祟高性。让我们仔细看

5、看Al的一些惊人突破。卷积神经网络“CNN)最初是在1980年代开发的,但直到21世纪初才被广泛使用。近年来,由于它们能够从图像的大型数据集中进行学习,并在各种图像处理任务(例如对象检测,图像分类和分割)上表现良好,CNN变得越来越受欢迎。变压器由多伦多大学和谷歌的研究人员于2017年开发。变形金刚使用一种称为缩放点积注意力的专门机制,该机制使它们充满了类似记忆的结构。15基于变形金刚的模型对于自然语言处理任务非常有效,例如回答问题,总结文本和翻译。因此,它们在大多数大型语言模型(1.1.M)中至关重要。最著名的1.1.M是GPT,该模型为流行的ChatGPT服务提供动力。1.1.M是在海量数

6、据集上训练的。除了能够针对具有额外数据的专业领域进行微调之外,它们还采取可能很长的提示序列来生成上下文敏感的响应,无论是时事,医学,法律还是其他。用于微调的新技术,例如来自人类反馈的强化学习(R1.HF)和直接偏好优化(DPo),已经被开发出来,以使1.1.M更具吸引力。研究和创新使最终用户的交互比以往任何时候都更快,更有创造力,更准确。与数据科学和软件的创新一样重要的是基础设施的发展德勃修理(从Al模型计算结果的过程)和模型训练(从数据构建Al模型的过程)使用Al加速器技术,人工智能从业者可以更快地迭代,以在几天和几周内提供更高质量的模型,而不是几个月。此外,数据科学家和统计学家采用的几种传

7、统技术正在重新评估,以利用CN系统的功能。云原生与人工智能的融合正如上一节所述,人工智能是一个更广泛的概念,旨在创建可以执行类似于人类任务的系统。机器学习是一种基于数据进行学习并做出明智预测和决策的方法。它可以被认为是另一种形式的白动化,涉及使用算法来学习和改进,而无需显式编程。最后,数据科学作为一个多学科领域,融合了统计学,数学和计算机科学的技术来制定。广泛的活动,从数据分析和解释到机器学习算法的应用。从广义上讲,我们可以将Al,M1.和数据科学的应用程序分为两大类:预测性AIand生成A1.预测性Al旨在预测和分析现有模式或结果(例如,分类,聚类,回归,对象检测等)。相比之下,生成Al旨在

8、生成新的和原始的内容(例如,1.1.M,RAGI7等)。因此,支持预测性和生成Al的算法和技术可能会有很大差异。CouclActve.4工图1云原牛.Al以下是预测和生成Al在计算、网络和存储方面有不同需求的一组示例:挑战/需求生成Al预测性Al计算型Power非常高。需要专门的硬件。中等到高。通用硬件就足够了。数据量和多样性用于培训的大量、多样化的数据集。预测的具体历史数据。模型训练和微调使用专业计算进行复杂的迭代训练0适度的训练。可扩展性和弹性高度可扩展和弹性的基础设施(可变和密集的计算霜求)可扩展性是必要的,但要求较低的弹性。批处理或事件驱动的任务。存储和吞吐量具有出色吞吐量的高性能存储

9、。数据类型多样。需要高吞吐量和低延迟的数据访问。高效存储,吞吐量适中。它更侧重于数据分析,而不是数据生成;数据主要是结构化的。联网用于数据传输和模型同步(例如,在分布式训练期间)的高带宽和低延迟。数据访问的一致可靠连接。在接下来的部分中,我们将探讨如何满足这两种形式所产生的需求,随之而来的挑战,以及在面对这些挑战时可能提出的建议。什么是云原生人工智能?云原生人工智能允许构建实用的系统来部署、运行和扩展Al工作负载。CNAl解决方案解决了Al应用科学家、开发人员和部署人员在云基础设施上开发、部署、运行、扩展和监控Al工作负载时面临的挑战。通过利用底层云基础设施的计算(例如Procedre,CPU

10、和GPU),网络和存储功能,以及提供隔离和受控共享机制,可加速Al应用程序性能并降低成本。图2(下图)在工具和技术之间映射了这些启用机制。/AutnM1.图2启用工具和技术18在云原生基础设施上运行Al云服务提供商和/或Al公司发布的媒体文章强调了CloudNativeforAl的价值。OPENAI将KUberneteS扩展至U7,500个节点拥抱的脸拥抱脸与Microsoft合作在Azure上启动拥抱脸模型目录云原生人工智能是云原生的一个不断发展的扩展。KUbemeteS是一个可用于部署和管理容器的编排平台,容器是轻量级、可移植、自包含的软件单元,Al模型可以打包成容器然后部署到K8s集群。

11、容器化对于Al模型尤其重要,因为不同的模型通常需要不同且通常相互冲突的依赖关系。在容器中隔离这些依赖关系可以在模型部署中提供更大的灵活性。CN工具允许Al模型的高效和可扩展部署,并不断努力为Al工作负裁定制这些模型。KubernetesScheduler21维续发展,2223特别是为了更好地集成和支持共享图形处理单元(GPU),这些图形处理单元在加速Al工作负载方面变得非常流行。除了支持共享GPU和处理多租户的应用程序之外,还在努力支持利用Kubernetes之外的远程资源池。需要高质量的数据来训练和测试AI模型,以获得卓越的推理。云原生基础设施可以通过各种方法访问数据,例如数据湖和仓库。许多

12、云提供商提供块、对象和文件存储系统,非常适合提供低成本、可扩展的存储。例如,模型的大小可以达到千兆字节。在训练阶段,每次拉取模型的检查点都会导致网络和存储带宽的严重负载。将模型视为容器化的工件为在C)Cl24注册表中托管它们打开了大门,并启用了缓存。它进一步允许应用。软件供应链模型的最佳实践,例如工件签名,验证,证明和数据来源。此外,容器化模型/工件促进了WebASSembly(WASM)二进制文件的捆绑。WASM是一种独立于平台的高效CN推理方法。为什么选择云原生人工智能?凭借其弹性,始终在线的基础架构,云允许企业,初创公司和开发人员快速原型,提供新服务,扩展解决方案等等。它还通过资源共享实

13、现了成本效益。普通用户不再需要担心订购硬件或处理空间、电源、网络连接、冷却、软件许可和安装等物流问题O人工智能也有类似的担忧快速原型设计、访问存储、网络和计算资源,以解决小型和大规模的训练和推理任务。使用Al改进云原生系统无论是打包为可观察性工具还是利用1.1.M功能进行日志的自然语言处理(N1.P),Al驱动的解决方案/项目都在进入运营商和最终用户的手中,以提高他们的生产力并使他们的生活更轻松。个这样的开源云原生计算基金会(CNCF)项目是K8sGPT,它利用1.1.M的模式识别和语言功能,如BedrOc,Cohere等,以帮助K8s运营商。日常工作。更重要的是,CN和Al的共生为新的和不可

14、预见的机会打开了生态系统。例如,我们预计能够操作和管理复杂系统的技术含量较低的用户将会增加。云人工智能的挑战重要的是要注意,CNAl的挑战在不同的角色之间会有所不同。26而且,尽管ClodNatiVe的灵活,可扩展的平台非常适合Al工作负载,但Al的规模和延迟需求带来了挑战,并暴露了CN技术中的差距,同时也带来了机会。我们在端到端M1.流水线的背景下梳理这些内容。27在文献中也称为M1.oPS.28传统的时间和空间,并行性和同步权衡的问题都存在,暴露了易于使用的差距。总而言之,M1.生命周期如下所示:图3M1.生命周期典型的M1.管道包括: 数据准备(收集、清洗/预处理、特征工程) 模型训练(

15、模型选择、架构、超参数调优) Cl/CD,模型注册表(存储) 模型服务 可观察性(使用负载、模型漂移、安全性)训练、相似性搜索和模型大小(特别是1.1.M)中涉及的数据量,每个驱动器内存和性能方面的考虑因素。虽然CN处理CPU的访问控制和调度,但具有充分共享的GPU分配仍在不断发展。M1.训练阶段涉及搜索,需要跟踪中间模型的性能,以确定要保留哪些模型以及如何进一步调整模型参数以获得更高的准确性。考虑到处理数据的敏感性和模型的内在价值,安全性更为重要。可观察性对于检测模型漂移、使用负毂等至关重要。让我们更深入地探讨每个管道阶段的挑战。鼓励读者考虑与其领域相关的其他挑战,并添加到对话中。数据准备作为Al/M1.管道的第一阶段,数据准备可能会带来各种挑战。这些可以大致分为三大类:管理大数据大小,确保开发和部署期间的数据同步以及遵守数据治理策略。数据大小构建更好的Al/M1.模型的数据需求增长速度快于摩尔定律,每18个月翻一番。30无论是数据管理/处理、数据处理还是数据分析,构建Al/M1.模型的数据需求都在快速升级。因此,分布式CIOUdNatiVe计算和高效的数据移动和存储对于弥合这些计算需求和硬件能力之间的差距至关重要。数据同步数据可能需要以不同的格式从多个不同的位置获得;开发人员和生产环境通常是不同的,所有这些都是除了处理分布

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > IT计算机 > 人工智能

copyright@ 2008-2023 yzwku网站版权所有

经营许可证编号:宁ICP备2022001189号-2

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!