边缘云原生虚拟化研究报告-31页.docx

上传人:王** 文档编号:972699 上传时间:2024-03-08 格式:DOCX 页数:27 大小:483.79KB
下载 相关 举报
边缘云原生虚拟化研究报告-31页.docx_第1页
第1页 / 共27页
边缘云原生虚拟化研究报告-31页.docx_第2页
第2页 / 共27页
边缘云原生虚拟化研究报告-31页.docx_第3页
第3页 / 共27页
边缘云原生虚拟化研究报告-31页.docx_第4页
第4页 / 共27页
边缘云原生虚拟化研究报告-31页.docx_第5页
第5页 / 共27页
边缘云原生虚拟化研究报告-31页.docx_第6页
第6页 / 共27页
边缘云原生虚拟化研究报告-31页.docx_第7页
第7页 / 共27页
边缘云原生虚拟化研究报告-31页.docx_第8页
第8页 / 共27页
边缘云原生虚拟化研究报告-31页.docx_第9页
第9页 / 共27页
边缘云原生虚拟化研究报告-31页.docx_第10页
第10页 / 共27页
亲,该文档总共27页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《边缘云原生虚拟化研究报告-31页.docx》由会员分享,可在线阅读,更多相关《边缘云原生虚拟化研究报告-31页.docx(27页珍藏版)》请在优知文库上搜索。

1、前言III1技术与需求概述11.1虚拟机和容器112OpenStack与Kubemetes11.3 融合管理的演进:K8s环境下运行虚拟机31.4 开源项目简介42技术实践92.1 生命周期管理92.2 镜像管理102.3 存储管理132.4 网络能力151技术与需求概述随着网络技术和云技术的发展,边缘计算得到了广泛的应用。边缘计算可以解决高可靠低延迟的设备接入和海量数据的实时计算问题,云技术有力的保障和推动了边缘计算的应用。1.1虚拟机和容器虚拟机和容器是云计算中最常用到的应用部署和运行方式。虚拟机是伴随着虚拟化的技术出现的,容器则云原生技术的典型特征之一,他们的架构对比如下图所示:曲机1J

2、OttN应用1 应用n应用1应用m容器1容器2容器n图1:虚拟机与容器架构对比图如上图所示,虚拟化技术一般通过虚拟化层(hypervisor)来实现,通过虚拟化技术,虚拟机可以共享物理机的CPU、内存、IO等硬件资源,并在逻辑上实现相互隔离。每一个虚拟机都拥有独立的操作系统(客户机操作系统),所以虚拟机不依赖于宿主机操作系统,其安全性和隔离性更强。但是虚拟机占用的资源较多,而且由于要模拟硬件,虚拟化层本身也会占用部分资源,对宿主机性能有一定的消耗。比较而言,容器则是使用宿主机的内核系统加上自身的文件系统。运行容器时是在使用宿主机的内核情况下加载文件系统,般可以将容器看作是在内核上运行的独立进程

3、。而精简的文件系统可以小到100MB以内,因此容器比虚拟机占用资源的更少、启动速度更快。容器缺点是隔离性不如虚拟机,而且由于依赖宿主机内核,所以容器的操作系统选择一般会受到限制。两种技术的特点对比如下表:表1:虚拟机与容器技术特点对比对比项虚拟机技术容器技术安全隔离性强,操作系统级别弱,进程级别对宿主机操作系统依赖无有,需要相同操作系统内核启动时间慢,分钟级快,秒级磁盘占用大(GB)小(MB虚拟化性能损耗大1小1.2OpenStack与Kubemetes从运行和管理平台来看,OPenStaCk2与Kubernetes(KSs)3分别是对虚拟机和容器进行运行和管理的典型开源项目。OPenStaC

4、k是开源的云计算平台,利用虚拟化技术和底层存储服务,提供了可扩展、灵活、适应性强的云计算服务。OPenStaCk的服务分为核心功能和非核心功能。核心功能是指运行OPenStaCk系统必须的功能的组件,包括:KeyStOne(身份识别服务)、Glance(镜像服务)、Nova(计算机服务)、Neutron(网络服务)、Cinder(块存储服务)、Swift(对象存储服务)、Horizon(控制面板服务)。非核心功能指的是实现附加功能的组件,如Ceilometer(测量功能)、Heat(部署编排)、Trove(数据库服务)等。OPenStaCk的各个组件(服务)之间使用标准的APl接口调用,减少了

5、服务之间的依赖。下图是OpenStack的逻辑架构图。-Command-Ineratfacesm,ePJHV-CloudMaAaQemeeToote(RJghecae.Entf8ivs0JW1GUIoIDasHjoartltCyberdw*,o119MmXaInternet图2:0PenStaCk逻辑架构图KUberneteS是容器管理编排引擎,可以自动完成容器的部署、管理和扩展等操作,部署KUberneteS的设备环境通常被成为KUbemeIeS集群。KUberneIeS集群逻辑上可以分为两个部分:控制平面与计算设备(或称为节点).控制平面的包含:kube-apiserver(接口程序,用于

6、处理内部和外部请求)、kube-scheduler(调度程序)、kube-controller-manager(集群控制管理程序)、etcd(数据库)。计算设备包含容器运行时引擎、kubelet(节点代理程序)、kube-proxy(网络代理程序)。KUberneteS的设计原则包括:安全、易于使用和可扩展。KUbemeteS同样遵循标准化APl接口,而且KUberneteS实现了CNl(容器网络接口)、CRI(容器运行时接口)、CSI(容器存储接口)等接口和CRD(用户自定义资源)等,便于实现功能的扩展。下图是KUberneteS的逻辑架构图。KubernetesclusterCompute

7、 machinesPersistantstoragekube*apiserverkube-schedulerkubeletkube-proxykube-controller-managerContainer runtimePodLJLJ ContainersContainer registryUnderlying infrastructurePhysicalVirtualPrivatePublicHybridControlplane图3:Kubemetes逻辑架构图OpenStack的设计比较全面,组件众多,部署相对复杂,难于运维,使用成本较高,更适合作为大规模云的管理系统。相对而言,Kube

8、metes的设计更加简洁,其核心组件少,便于运维,同时K8s的生态很庞大,可以很方便地对其进行扩展或者定制,更适用于资源受限的边缘环境。1. 3融合管理的演进:K8s环境下运行虚拟机当前,通过容器部署的应用越来越广泛。但是,通过虚拟机部署的应用也会存在相当长的时间。首先,有不少现存的应用程序是运行在虚拟机上的,其中一些程序无法轻松地进行容器化重构。其次,即便对程序进行容器化改造,之后的系统调试和问题定位又会带来很大的挑战,尤其是对于通信行业来说,多代通信设备并存,对设备和应用程序的稳定性要求又非常高,对原有的应用程序进行容器化改造的成本和风险都是较大的。最后,一些应用或者场景更加适合使用虚拟机

9、来进行部署。比如下面这些场景更适合使用虚拟机来运行而不是容器:* NFV(networkfunctionvirtualization)网络功能虚拟化的场景:将传统的网元虚拟化,使用虚拟机会比使用容器更方便,因为容器在接入多网卡方面比起虚拟机的能力来说还有一定的差距;* 大模型的研发测试:大模型在研发测试阶段进场需要使用多张GPU协同配合,同时要安装很多多软件依赖包来进行调试和使用,这时宜接将多张GPU挂载到一个虚拟机里,然后在虚拟机里来实验开发要比在容器里方便很多;* 数据库:不是所有的数据库都适合放在容器里运行,比如部分数据库的特定算法需要限制IP的变化,在虚拟机里部署可以有一个固定的IP,

10、会更加方便;* 很多进程的应用:在容器使用上,有个核心概念就是部署任务单一的进程,比如一个简单的叩i服务进程加一个日志收集的进程组合成为了一个容器,有些多进程的应用就不适合放在容器中运行了。于是,随着时间推移,企业会遇到这样的情况,有些应用还是只能运行在虚拟机上,有些应用已经完成了容器化,企业管理员不得不同时运维管理多套平台,这大大增加了运维的难度:* 计算资源:从管理角度来说计算资源的管理不同的平台的管理方法也是截然不同的,比如OpenStackSgaprqjectquota来窗里,而K8s贝UiffiSrequest/Iimit来,员必学蜂全了麒篇几制才能完全很好的管理起来;* 网络资源:

11、同样,对于网络管理来说,不同的平台也是完全不同的,K8s使用CNI来管理网络,同时OPenStaCk通过neutron来管理网络,他们的使用理念上也是截然不同的,这样很大程度上增加了学习成本;* 监控/日志:各种平台都有自己的完整的监控/日志收集系统,它们会占用大量的计算、存储和网络资源,同时部署这样2套平台,从资源使用的角度上来说也是一种很大的浪费;* 存储资源:相同的存储资源对接K8s和OPenStaCk方式都是截然不同的,出现问题后找根因的思路和角度也都是不一样的,这样也大大加大了运维的成本和难度。* 安全风险:软件是由不同工程师编写的代码,运行在不同的操作系统上,每个环境都会遇到安全漏

12、洞,越多组件则面临更多的安全漏洞,同时运维2套平台就意味着面临安全漏洞也会更多,企业面临的安全风险也就更大。从各个方面来看,企业内部的虚拟机平台和容器平台合并成为同一套平台来进行管理是一个趋势。那么是将K8s合并到OPenStaCk呢?还是反过来呢?业内也在研究虚拟机和容器的共平台的部署和管理,从OPenStaCk和K8s各自的发展来看,两个平台也在进行虚拟机和容器共同管理的探索,比如OPenStaCk的ZUn服务将容器作为一种OPenStaCk资源来进行管理,并通过集成OPenStaCk的其他服务,为用户呈现统一的、简化的APl接口,用户可以通过这些接口来创建、管理容器;K8s也有多个相关的

13、开源项目在研究如何实现对虚拟机的管理(见下文)。从云技术的现状和发展来看,容器的应用越来越广泛,而且K8s在容器编排领域成为了业内事实上的标准。在边缘环境下,K8s的适用范围也更加广泛,因此,本文将进一步探讨在K8s环境下运行虚拟机的技术和实践范例。1.4开源项目简介本节介绍在K8s环境下运行虚拟机的相关开源项目。当前这些项目还在发展之中,功能还在不断地迭代和完善。1.4.1 KubeVirtKUbeVirt4是一个K8s插件,由Redhat开源,云原生计算基金会(CNCF)赞助的开源项目。KubeVirt插件可以在K8s平台上调度传统的虚拟机。KUbeVirt使用自定义资源(CRD)将VM管

14、理接口接入到K8s中,通过一个Pod去使用IibVirtd管理VM的方式,实现Pod与VM的对应,做到如同容器一般去管理虚拟机,并且做到与容器一样的资源管理、调度规划。KUbeVirt的架构图如下。图4:KUbeVirt架构图KUbeVirt主要由下列五个部分组成:VirLaPQkubevirt是以CRD形式去管理VMPOd,virLapi就是所有虚拟化操作的入口,这里面包括常规的CDR更新验证、以及ConSOle、vmstartStoP等操作。Virt-Controllerivirt-Controller会根据VMlCRD,生成对应的Virt-IaUnCherPod,并且维护CRD的状态。与

15、K8s的api-server通讯监控VMI资源的创建删除等状态。virt-handlenvirt-handler会以deamonset形式部署在每个节点上,负责监控节点上的每个虚拟机实例状态变化,一旦检测到状态的变化,会进行响应并且确保相应的操作能够达到所需(理想)的状态。Virt-handler还会保持集群级别VMISPeC与相应Iibvirt域之间的同步;报告IibVirI域状态和集群SPeC的变化;调用以节点为中心的插件以满足VMlSPeC定义的网络和存储要求。Virt-Iauncher:每个Virt-IaUnCherPOd对应着一个VMLkUbeIet只负责VirI-IaUnCherPOd运行状态,不会去关心VMl创建情况。Virt-hander会根据CRD参数配置去通知VirtTaUnCher去使用本地的IibVirtd实例来启动VML随着POd的生命周期结束,Vin-IanUnCher也会去通知VMl去执行终止操作;其次在每个Virt-IauncherPOd中还对应着一个IibVirtd,Viri-Iauncher通过IibVind去管理VM的生命周期,不再是以前的虚拟机架构那样一个IibVirtd去管理多个VM。virtctl:Virt

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 论文 > 毕业论文

copyright@ 2008-2023 yzwku网站版权所有

经营许可证编号:宁ICP备2022001189号-2

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!