首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 156 毫秒
1.
容器监控是保证容器基础设施正常运行的核心要素之一,然而当前容器监控角度较为单一,尚缺少直观有效的方法协助运维人员快速定位业务容器异常原因.本文设计并实现了一个面向Kubernetes的容器立体化监控系统,通过监控指标相关性分析,把相关性较强的指标作为立体化监控的核心指标提供给运维人员,更好地实现对容器的全局统筹监控.  相似文献   

2.
为了方便云平台的管理,摆脱使用Kubetcl命令行方式操作Kubernetes集群的繁琐,前台采用React框架构建UI界面,后台使用Fabric8框架调用Kubernetes云平台的功能接口,前后端数据的交互借助Axios框架来完成。最终成功完成了基于Docker的Kubernetes可视化管理平台的开发。通过该平台,管理人员可以操作Kubernetes集群中Pod、Namespaces、Service等核心组件。并且在此基础上,该文借助时序数据库InfluDB和可视化监控工具Grafana,实现了平台资源的监控。通过集成Harbor管理页面,可以对Docker私有镜像仓库进行管理。最终,Kubernetes可视化管理平台实现的功能主要包括:物理节点信息显示,Pod、Controller、Service、Namespace的增删改查,平台资源监控和私有镜像管理。这种所见即所得的管理方式,可以充分发挥容器集群自动化部署、自动化扩缩容、自动维护的特性。同时,也使得容器集群的管理更加方便,极大地提高了平台管理的效率,降低了管理人员的负担。  相似文献   

3.
随着卫星遥感行业进入大数据时代,传统的数据处理平台日渐难以满足卫星遥感数据快速积累的发展需求,同时也对系统在动态调度资源、易维护、弹性扩展、复杂度可控和灵活部署等方面提出了更高的要求。针对上述问题,文章引入容器技术及Kubernetes容器集群管理系统,设计实现了基于Kubernetes的开源容器云平台,将单个业务系统拆分成多个独立运行在相互隔离容器中的服务,实现了应用服务容器的调度和管理、快速部署和迁移,并以GF7高分卫星数据为例进行验证,验证了容器集群能够有效处理卫星遥感数据,提高了卫星遥感数据处理平台的资源利用率和运维效率;文末结合卫星遥感行业的现状及特点,就容器化应用的前景及面临的困难进行了展望分析。  相似文献   

4.
为提高容器云资源监控效果,设计一种大规模容器云平台海量数据资源实时监控方法。首先采集容器云资源数据,对海量软件数据资源进行格式变换,将数据转换成有监督问题的时间序列,再采用统计模型的方式对每个数据资源进行建模和匹配,并对各部分软件数据资源进行分割,最后采用序列化蒙特卡洛方法对云平台海量软件数据资源实时监控。实验结果表明,设计方法能够准确监测出容器云中软件数据资源集群变化情况,在各个项目的监测上,监控准确率均在95%以上,监测速度较快,最多花费9 s就能够实现软件数据资源变化情况的监控,证明所提出方法能够有效提高容器云海量软件数据资源的监控效果。  相似文献   

5.
文中介绍了基于Kubernetes的AI调度引擎平台的设计与实现, 针对当前人工智能调度系统中存在的服务配置复杂, 集群中各节点计算资源利用率不均衡以及系统运维成本高等问题, 本文提出了基于Kubernetes实现容器调度和服务管理的解决方案. 结合AI调度引擎平台的需求, 从功能实现和平台架构等方面设计该平台的各个模块. 同时, 针对Kubernetes无法感知GPU资源的问题, 引入device plugin收集集群中每个节点上的GPU信息并上报给调度器. 此外, 针对Kubernetes调度策略中优选算法只考虑节点本身的资源使用率和均衡度, 未考虑不同类型的应用对节点资源的需求差异, 提出了基于皮尔逊相关系数 (Pearson correlation coefficient, PCC)的优选算法, 通过计算容器资源需求量与节点资源使用率的互补度来决定Pod的调度, 从而保证调度完成后各节点的资源均衡性.  相似文献   

6.
现在容器云平台容器数目日益增加,相关监控数据爆炸式增长,而现有的运行在容器内的微服务监控软件监控指标不仅种类繁多,配置繁琐,并且往往只是直接给出监控数据,没有根据得到的监控指标对系统的健康度进行度量。针对该问题,提出了一种新的基于粗糙集的容器云系统健康度评价模型。通过建立的粗糙集云系统健康度评价模型,可以直观地反映整个集群的健康程度。首先通过信息熵对监控到的连续属性进行断点分割,离散化处理,然后利用粗糙集理论实现对监控数据进行知识约简、一致性检查和决策表建立,从而建立了基于粗糙集和信息熵的集群健康度指标模型。最后,通过Kubernetes容器云平台分别进行计算密集负载和网络密集负载仿真实验,实验结果表明,该模型能够反映集群的性能和对异常进行检测。  相似文献   

7.
近年来,容器由于具有轻量级以及高可扩展性,逐渐替代了虚拟机,被广泛应用于深度学习云平台中。但目前深度学习云平台在GPU资源管理上依然存在着不足,主要表现为由于容器编排技术的限制,多个容器无法共享使用GPU资源,而对于一些小规模模型的训练任务和推理任务,单个任务并不能充分利用整张GPU卡的计算资源。当前的独占模式会导致昂贵的GPU资源的浪费,降低资源效率和服务可用性。针对这一问题,提出了一种GPU共享调度系统。一方面,基于Kubernetes的Operator机制对现有集群功能进行扩展,实现了多个Pod共享使用GPU资源,同时设计了一种代理机制保证了与原生Kubernetes的兼容性。另一方面,基于GPU时间片与抢占机制,实现了GPU资源的动态管理与调度,在多个任务之间进行细粒度的协调,并减少了任务干扰。实验结果表明,与原生Kubernetes调度系统相比,该系统能够将一组深度学习训练任务的完成时间平均减少约20%,使得集群GPU资源利用率平均提升约10%。在共享使用GPU时高优先级任务性能相较于独占GPU损耗不到5%,同时能够使得低优先级任务以20%的性能运行在同一张GPU上。  相似文献   

8.
Kubernetes是一个管理容器化应用的开源平台,其默认的调度算法在优选阶段仅把CPU和内存两种资源来作为计算节点的评分指标,同时还忽略了不同类型的Pod对节点资源的占用比例是不同的,容易导致某一资源达到性能瓶颈,从而造成节点对资源使用失衡.针对上述问题,本文在Kubernetes原有的资源指标基础上增加了带宽和磁盘容量,考虑到CPU、内存、带宽和磁盘容量这4类资源在节点上的占用比例对节点的性能的影响,可能造成Pod中应用的非正常运行,甚至杀死Pod,从而影响集群整体的高可靠性.本文将等待创建的Pod区分为可压缩消耗型、不可压缩消耗型以及均衡型,并为每种类型的Pod设置相应的权重,最后通过改进的秃鹰搜索算法(TBESK)来寻找出最优节点进行调度.实验结果表明,随着集群中Pod的数量在不断增加,在集群负载较大的情况下, TBESK算法的综合负载标准差和默认的调度算法相比提升了24%.  相似文献   

9.
Kubernetes因其强大的容器编排能力而受到业界的广泛使用,但由于其节点的负载均衡是静态的,随着应用的不断创建和删除,以及节点资源的变化,极易出现集群负载不均衡的现象,从而导致部分节点压力过大,甚至存在宕机的风险。为解决这一问题,论文提出了一套面向Kubernetes的动态负载均衡机制,根据节点的负载信息变化情况,能够动态选择合适的Pod进行重新调度。实验结果表明该机制可以达到集群压力均匀分散的目的,使集群的资源得到更合理的使用。  相似文献   

10.
为解决传统方案中单节点带来的性能瓶颈和低可靠性问题,基于对等监控网络设计并实现了云监控系统解决方案。在硬件部署上,该解决方案将监控节点封装在应用容器中,分布式部署在不同机架上,组建对等的监控网络;监控节点间采用非关系型数据库构建分布式存储集群,实现了监控数据的异地访问和备份。在软件实现上,该解决方案进行了分层设计,采用推拉结合的方式收集数据,对采集的数据进行可信度评估和分布式存储,使用阈值控制和主机空闲评估相结合的策略对云中主机进行智能化管控。通过系统测试,发现该监控系统对计算资源的平均占用率仅有2.17%;而1 ms内响应读写请求的平均比率达到93%以上,表明该解决方案具有资源消耗率低、高频次读写效率高的性能优势。  相似文献   

11.
基于Kubernetes的云原生海量数据存储系统设计与实现   总被引:1,自引:0,他引:1  
为应对云原生技术的日益发展与普及伴随的云上数据量的激增及该技术在性能与稳定性等方面所出现的瓶颈,提出了一种基于Haystack的存储系统。该存储系统在服务发现、自动容错与缓存方面进行了优化,更适用于云原生业务,以满足数据采集、存储与分析行业不断增长且频次较高的文件存储与读写需求。该存储系统使用对象存储模型来满足高频海量的文件存储,为使用该存储系统的业务提供简单而统一的应用程序接口,应用了文件缓存策略提升资源利用率,同时利用Kubernetes丰富的自动化工具链使该存储系统比其他存储系统更容易部署和扩展且更稳定。实验结果表明,该存储系统在读多于写的大规模碎片数据存储情境下相比目前主流的对象存储与文件系统均有一定的性能与稳定性提升。  相似文献   

12.
基于遗传算法的Kubernetes资源调度算法   总被引:1,自引:0,他引:1  
Kubernetes在优选阶段仅根据节点CPU和内存的利用率来决定节点的分值,这只能保证单节点的资源利用率,无法保证集群资源的负载均衡.针对该问题,提出一种基于遗传算法的Kubernetes资源调度算法,该算法加入了网络带宽和磁盘IO两项评价指标,同时为评价指标赋予不同权重值,并且引入校验字典校验并修复遗传算法生成的新种群中不符合配置的个体.实验结果表明,与Kubernetes默认资源调度策略相比,该算法考虑了集群中的所有节点的资源利用率,在保证集群负载均衡方面有着更好的效果.  相似文献   

13.
容器云是5G边缘计算的重要支撑技术,5G的大带宽、低时延和大连接三大特性给边缘计算带来较大的资源压力,容器云编排器Kubernetes仅采集Node剩余CPU和内存两大资源指标,并运用统一的权重值计算Node优先级作为调度依据,该机制无法适应边缘计算场景下精细化的资源调度需求。面向5G边缘计算的资源调度场景,通过扩展Kubernetes资源调度评价指标,并增加带宽、磁盘两种评价指标进行节点的过滤和选择,提出一种基于资源利用率进行指标权重自学习的调度机制WSLB。根据运行过程中的资源利用率动态计算该应用的资源权重集合,使其能够随着应用流量的大小进行自适应动态调整,利用动态学习得到的资源权重集合来计算候选Node的优先级,并选择优先级最高的Node进行部署。实验结果表明,与Kubernetes原生调度策略相比,WSLB考虑了边缘应用的带宽、磁盘需求,避免了将应用部署到带宽、磁盘资源已饱和的Node,在大负荷与异构请求场景下可使集群资源的均衡度提升10%,资源综合利用率提升2%。  相似文献   

14.
容器技术可为多个业务需求及其依赖组件提供独立的应用资源,在现实生产环境中由于容器中的业务需求不断变化,使得与其对应的应用资源在线负载处于动态变化中,面临固定资源容量规划不能满足在线负载变化的困境。为解决该问题,设计一种基于Kubernetes云平台的弹性伸缩方案。该方案通过集成Prometheus监控系统来自定义指标与采集业务指标,并结合HPA、VPA等组件,实现包括自定义指标和不同维度伸缩方法相结合的最佳弹性伸缩方法。通过集成Grafana页面显示和报警等组件,实现实时查看弹性伸缩状态变化以及伸缩预警功能,以实时观测集群健康状态,使得集群操作更加友好、便于维护。实验结果表明,在不同压力测量测试下,该弹性伸缩方案具有随负载增加扩大集群规模的作用,能够增强应用集群的高可用能力。  相似文献   

15.
Computer virtualization brought fast resource provisioning to data centers and the deployment of pay-per-use cost models. The system virtualization provided by containers like Docker has improved this flexibility of resource provisioning. Applications that require more restrictive agreement and ordering guarantees can also benefit from operating inside containers. This paper proposes the integration of coordination services in a container management system called Kubernetes (k8s), seeking to restrict the containers’ size and to offer automatic state replication. A protocol that uses shared memory available in Kubernetes was developed, and an evaluation was conducted to show the viability of the proposal.  相似文献   

16.
Container-based virtualization techniques are becoming an alternative to traditional virtual machines, due to less overhead and better scaling. As one of the most widely used open-source container orchestration systems, Kubernetes provides a built-in mechanism, that is, horizontal pod autoscaler (HPA), for dynamic resource provisioning. By default, scaling pods only based on CPU utilization, a single performance metric, HPA may create more pods than actually needed. Through extensive measurements of a containerized n-tier application benchmark, RUBBoS, we find that excessive pods consume more CPU and memory and even deteriorate response times of applications, due to interference. Furthermore, a Kubernetes service does not balance incoming requests among old pods and new pods created by HPA, due to stateful HTTP. In this paper, we propose a bi-metric approach to scaling pods by taking into account both CPU utilization and utilization of a thread pool, which is a kind of important soft resource in Httpd and Tomcat. Our approach collects the utilization of CPU and memory of pods. Meanwhile, it makes use of ELBA, a milli-bottleneck detector, to calculate queue lengths of Httpd and Tomcat pods and then evaluate the utilization of their thread pools. Based on the utilization of both CPU and thread pools, our approach could scale up less replicas of Httpd and Tomcat pods, contributing to a reduction of hardware resource utilization. At the same time, our approach leverages preStop hook along with liveness and readiness probes to relieve load imbalance among old Tomcat pods and new ones. Based on the containerized RUBBoS, our experimental results show that the proposed approach could not only reduce the usage of CPU and memory by as much as 14% and 24% when compared with HPA, but also relieve the load imbalance to reduce average response time of requests by as much as 80%. Our approach also demonstrates that it is better to scale pods by multiple metrics rather than a single one.  相似文献   

17.
随着Jupyter Notebook在数据科学领域应用规模的不断扩大,对于多用户管理和集群计算资源调度的功能需求越趋增加.本文从Jupyter相关基本概念入手,阐述了Jupyter对于科研成果交流传播的作用影响,总结了目前国外科研机构、高等院校等组织在研究Jupyter分布式架构方面的现状;详细分析了Jupyter体系架构特点,运用微服务的方式重构Jupyter,并通过Kubernetes的资源调度分配算法,实现了基于容器技术的高弹性分布式微服务架构.测试结果数据表明,本文提出的架构在访问负载性能上得到了一定程度的提升,在用户运行数量方面达到了集群上负载均衡的目标.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号