首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 171 毫秒
1.
针对存储系统中的缓存管理单元设计一种区分应用优先级的缓存回收策略,简称PARP.该策略基于分区缓存管理模型,它能够根据应用优先级区分回收缓存资源以实现对各应用缓存分区容量的在线动态调节进而达成应用级缓存管理语义.实验数据表明PARP策略能够在实际系统中有效的支持区分应用优先级,这不仅可以用于实现存储系统的服务质量保证同时也能够改善存储系统的整体性能.  相似文献   

2.
一个通用的分布式访问控制决策中间件   总被引:2,自引:0,他引:2  
将各种安全功能从上层应用中抽象出来形成一种通用和标准的安全服务,可以简化应用开发的复杂性和增强安全功能的可重用性。论文设计并实现了一个基于XACML的通用分布式访问控制决策中间件UDACD(Universal Distributed Access Control Decision),对分布式环境下的访问控制决策过程进行了封装,对外面向各种应用提供通用的决策服务。UDACD支持多种访问控制策略类型和跨管理域的匿名资源访问控制;实现了对策略的缓存和对用户安全属性的两级缓存,显著加快了决策速度。UDACD可以帮助简化策略管理,并提供跨应用的一致策略实施。  相似文献   

3.
针对WebGIS显示效率低,而现有瓦片式地图缓存技术又难以有效应用于可编辑WebGIS的问题,设计一种动态缓存策略。该策略从缓存更新的角度对传统瓦片式地图缓存技术进行改进,实现地图缓存的实时动态更新,使网络地图缓存技术能够应用于可编辑WebGIS。通过系统应用实例和性能对比实验,证明该缓存策略能够在不影响系统编辑操作的前提下,提高系统效率,且符合实际行业 需要。  相似文献   

4.
P2P VoD应用中,用户行为不同步且允许随时离开系统降低了资源相互共享的概率,导致缓存可用性及服务效率降低.该问题严重影响了用户体验的质量及系统的可扩展性.定义并分析了缓存片段的相对可用性;基于对节点生存期分布规律的考察,提出一种评估缓存片段相对可用性的实用方法;设计出一种分布式的缓存优化策略:利用各节点对局部范围内缓存片段相对可用性的评估、优化来提升整个系统的缓存可用性及服务效率.仿真结果表明,该策略有效提高了播放连续度,降低了服务器负载,提高了系统可扩展性.  相似文献   

5.
数据中心已经成为提供资源和服务的重要平台,在虚拟化基础上部署的多种应用对网络性能提出了更加严格和多样化的需求,从而促使改变以传统TCP为中心的传输层结构.文中从数据中心环境的特性出发,归纳得到改进数据中心网络传输层设计的3个方向.在深入剖析InfiniBand(IB)互联传输优化相关技术的基础上,文中提出了一种更好的支持网络可感知、应用可区分、策略可管理的数据中心网络新型传输控制模型.文中对IB传输控制核心的IB拥塞控制算法及其参数进行了深入的分析,证明了在流级通过区别化的拥塞控制参数配置能够实现成比例的带宽划分.最后,在真实系统中的实验验证了通过参数的动态配置能够保持租户级的公平带宽共享,更好支持云数据中心的带宽隔离需求.  相似文献   

6.
一种新的基于分区的多媒体代理协作管理策略   总被引:2,自引:0,他引:2  
多媒体代理缓存是提高媒体流化质量和减轻网络负载的重要手段,将基于协作的多媒体代理缓存技术引入无线网络,提出一种新的分区缓存管理模型(Partition-based caching manager,PBCM),通过对系统中各个代理的部分缓存空间(称为静态分区)采取集中式管理,可以合理配置缓存资源,降低缓存的冗余度,从全局角度优化系统的整体性能,具体地,PBCM中制定了一种全局对象放置策略来管理静态分区缓存的内容,该策略被模型化为一个优化问题,并采用改进遗传算法来求解,仿真实验表明该模型及算法是有效可行的。  相似文献   

7.
一种面向存储服务的缓存管理模型   总被引:5,自引:3,他引:2       下载免费PDF全文
给出一种适用于网络存储设备的面向存储服务的新型缓存管理模型,它支持可配置的缓存管理策略和可配置策略的缓存分配机制。与通用操作系统中的缓存管理模块相比,该模型的主要优点是使能针对具体存储应用的性能优化,使能多个存储应用之间的数据访问 QoS控制。  相似文献   

8.
一个分级存储的信息生命周期管理系统设计与实现   总被引:2,自引:0,他引:2  
信息生命周期管理是一种可持续发展的存储策略,以其独特的优势在存储成本和高效信息管理之间取得平衡.本文设计并实现SAN、NAS存储网络下基于分级存储(HSM)的清华信息生命周期管理系统(THILM).提出一种新的文件重解析实现技术,实现ILM系统中HSM应用服务器端和系统应用层对动态存储数据的透明访问和多级存储数据的统一管理.讨论通过对应用元数据管理的优化和菱略缓存(PolicyCache)技术的改进实现高效的管理策略的执行,通过系统性能测试表明表文提出的文件重解析实现技术带来的额外负载几乎可以忽略,策略缓存技术使系统的策略执行性能提高了一个数量级.另外针对原策略缓存初始化性能低下的问题,采用策略元数据池(PMC)进行优化,采用PMC后THILM策略缓存的初始化时间降低了16~20倍.  相似文献   

9.
基于反馈控制理论,通过系统辨识设计了缓存控制器。动态调整不同类别缓存对象的缓存空间,可保证高优先级Web对象的高命中率,而不同类别的Web对象命中率之比保持不变。在服务器端实现了基于比例命中率的缓存区分服务。经实验验证,在GDSF,LRU,LFU缓存替换算法下,无论是请求命中率还是字节命中率,均有良好的区分效果。  相似文献   

10.
提出了一种基于衍生树的P2P 系统框架,以支持交互式流媒体应用.该系统利用分布式发现服务来进 行资源定位,并通过基于衍生树的缓存结构来维护数据传输拓扑.使用基于衍生树的系统管理策略可以显著地降低 节点动态加入和退出等交互操作的开销.另外,通过使用分布式散列表(distributed hash table,简称DHT)来维护会话, 可以较低的代价实现资源查找、服务重构和拓扑维护等任务.仿真实验结果表明,与现有的P2P 流媒体系统相比,该 系统具有良好的性能,其用户交互操作的开销可以降低超过50%.  相似文献   

11.
一种面向多核系统的并行计算任务分配方法   总被引:2,自引:0,他引:2  
随着多核处理器的普及,目前的大规模并行处理系统普遍采用多核处理器,这对于资源管理和调度提出了更高的要求.提出了基于共享Cache资源划分的方法,建立了面向多核处理器支持Cache资源分配的进程调度模型,设计并实现了并行任务到多核处理器的映射算法,更好地解决了大规模资源管理系统中面向多核处理器的任务分配问题,降低了使用共享Cache的多个进程运行时的相互干扰,提升了应用程序性能.  相似文献   

12.
With rapid development of multi/many-core processors, contention in shared cache becomes more and more serious that restricts performance improvement of parallel programs. Recent researches have employed page coloring mechanism to realize cache partitioning on real system and to reduce contentions in shared cache. However, page coloring-based cache partitioning has some side effects, one is page coloring restricts memory space that an application can allocate, from which may lead to memory pressure, another is changing cache partition dynamically needs massive page copying which will incur large overhead. To make page coloring-based cache partition more practical, this paper proposes a malloc allocator-based dynamic cache partitioning mechanism with page coloring. Memory allocated by our malloc allocator can be dynamically partitioned among different applications according to partitioning policy. Only coloring the dynamically allocated pages can remit memory pressure and reduce page copying overhead led by re-coloring compared to all-page coloring. To further alleviate the overhead, we introduce minimum distance page copying strategy and lazy flush strategy. We conduct experiments on real system to evaluate these strategies and results show that they work well for reducing cache misses and re-coloring overhead.  相似文献   

13.
面向多线程多道程序的加权共享Cache划分   总被引:5,自引:1,他引:4  
并行应用在共享Cache结构的多核处理器执行时,会因为对共享Cache的冲突访问而产生性能下降和执行时间不确定的现象.共享Cache划分技术可以把共享Cache互斥地分配给多个进程使用,是解决该问题的有效方法.由于线程间的数据共享,线程数目不同的应用对共享Cache的利用率不同,但传统的以失效率最低为目标的共享Cache划分算法(例如UCP)没有区分应用线程数目的不同.文中设计了一种面向多线程多道程序的加权共享Cache划分框架(Weighted Cache Partitioning,WCP),包括面向应用的失效率监控器和加权Cache划分算法.失效率监控器以进程为单位动态监控在不同的Cache容量下应用的失效率;而加权Cache划分算法扩展了传统的失效率最优的Cache划分算法,根据应用线程数目的不同在进行Cache划分时给应用赋予不同的权值,以使具有更多线程的应用获得更多的共享Cache,从而提高系统的整体性能.实验结果表明:加权Cache划分算法虽然失效率有所增高,但却改进了IPC吞吐率、加权加速比和公平性.在由科学和工程计算应用组成的多道程序测试用例中,WCP-1的IPC吞吐率比以失效率最低为目标函数的共享Cache划分算法最高高出10.8%,平均高出5.5%.  相似文献   

14.
由于Cache拓染问题,传统的仅由硬件控制的Cache替换箫略不能得到令人满意的Cache利用率。为解决该问题,EPIC引入了Cache提示以辅助控制Cache替换。文章提出了一个由编译器辅助挖制的Cache替换策略:最优Cache划分(OCP)。OCP Cache替换策略简化了Cache行为和Cache失效分析方法。实验结果表明,OCP Cache替换箫略能有效地降低Cache失效率。  相似文献   

15.
非易失性存储器具有能耗低、可扩展性强和存储密度大等优势,可替代传统静态随机存取存储器作为片上缓存,但其写操作的能耗及延迟较高,在大规模应用前需优化写性能。提出一种基于缓存块重用信息的动态旁路策略,用于优化非易失性存储器的缓存性能。分析测试程序访问最后一级缓存(LLC)时的重用特征,根据缓存块的重用信息动态预测相应的写操作是否绕过非易失性缓存,利用预测表进行旁路操作完成LLC缺失时的填充,同时采用动态路径选择进行上级缓存写回操作,通过监控模块为旁路的缓存块选择合适的上级缓存,并将重用计数较高的缓存块填充其中以减少LLC写操作次数。实验结果表明,与未采用旁路策略的缓存设计相比,该策略使4核处理器中所有SPLASH-2程序的运行时间平均减少6.6%,缓存能耗平均降低22.5%,有效提高了整体缓存性能。  相似文献   

16.
现有的ULC机制可有效减少多级缓存的数据冗余,并解决存储服务器端缓存访问的局部性较弱问题,但在存储服务器连接多个应用服务器的情况下,现有ULC在分配缓存容量时不能使存储服务器端缓存资源的边际收益最大化。为此,提出一种多应用共享缓存的二级缓存动态分配策略MG—ULC。该策略以ULC机制为基础,给出以边际增益为考虑因素的缓存分配的理论依据,并根据各应用的访问模式在二级缓存的边际增益动态分配缓存容量。实验结果表明,随着各应用服务器访问模式的变化,MG—ULC能比ULC更合理地分配二级缓存,从而达到更高的缓存利用率。  相似文献   

17.
Static cache partitioning can reduce inter-application cache interference and improve the composite performance of a cache-polluted application and a cache-sensitive application when they run on cores that share the last level cache in the same multi-core processor. In a virtualized system, since different applications might run on different virtual machines (VMs) in different time, it is inapplicable to partition the cache statically in advance. This paper proposes a dynamic cache partitioning scheme that makes use of hot page detection and page migration to improve the composite performance of co-hosted virtual machines dynamically according to prior knowledge of cache-sensitive applications. Experimental results show that the overhead of our page migration scheme is low, while in most cases, the composite performance is an improvement over free composition.  相似文献   

18.
《Parallel Computing》2014,40(10):710-721
In this paper, we investigate the problem of fair storage cache allocation among multiple competing applications with diversified access rates. Commonly used cache replacement policies like LRU and most LRU variants are inherently unfair in cache allocation for heterogeneous applications. They implicitly give more cache to the applications that has high access rate and less cache to the applications of slow access rate. However, applications of fast access rate do not always gain higher performance from the additional cache blocks. In contrast, the slow application suffer poor performance with a reduced cache size. It is beneficial in terms of both performance and fairness to allocate cache blocks by their utility.In this paper, we propose a partition-based cache management algorithm for a shared cache. The goal of our algorithm is to find an allocation such that all heterogeneous applications can achieve a specified fairness degree as least performance degradation as possible. To achieve this goal, we present an adaptive partition framework, which partitions the shared cache among competing applications and dynamically adjusts the partition size based on predicted utility on both fairness and performance. We implement our algorithm in a storage simulator and evaluate the fairness and performance with various workloads. Experimental results show that, compared with LRU, our algorithm achieves large improvement in fairness and slightly in performance.  相似文献   

19.
袁平鹏  曹文治  邝坪 《软件学报》2006,17(11):2314-2323
网格调度的目标提高网格资源的利用率、改善网格应用的性能,它是网格中需着力解决的问题之一.目前,围绕着网格中的任务调度算法,国内外已做了大量的研究工作,先后提出了各种调度算法.但是,这些调度算法不能很好地适应网格环境下的自治性、动态性、分布性等特征.针对目前网格调度机制存在的问题,提出了一种动态的网格调度技术--基于Cache的反馈调度方法(cache based feedback scheduling,简称CBFS).该调度方法依据Cache中所存放的最近访问过的资源信息,如最近一次请求提交时间、任务完成时间等信息进行反馈调度,将任务提交给负载较小或性能较优的资源来完成.实验结果表明,CBFS方法不但可以有效减少不必要的延迟,而且在任务响应时间的平滑性、任务的吞吐率及任务在调度器等待调度的时间方面比随机调度等传统算法要好.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号