共查询到19条相似文献,搜索用时 531 毫秒
1.
2.
为降低主副本数据更新延时、减少存储开销大的问题,解决分布式存储信息出现不一致的情况,提出基于模式识别的分布式存储信息一致性控制方法.通过组建中心控制端、传输控制端以及移动端构成分布式信息存储机制,了解其具有主副本数据延时更新的问题;将数据全相关一致性更新技术与模式识别法相结合,选取最优特征子集,将添加、修改、删除三种操作下形成的数据集定义为结构序列,以状态向量的记录作为数据一致性主要参考,分析对比两个节点数据库的状态向量,完成分布式存储信息一致性控制.通过仿真表明,所提方法可以实时更新主副本数据,节省存储开销. 相似文献
3.
针对数据一致性维护过程中存在的更新相关问题,本文提出一种更新冲突协商算法,利用Bloom Filter压缩技术表示更新,通过结点间的分工协作发现和解决更新相关冲突,并实现副本最终一致。模拟测试结果表明,该方法在一致性维护开销方面具有较好的性能。 相似文献
4.
5.
目前副本策略已经被广泛地应用于提高P2P系统的性能和可扩展性.随着越来越多的业务的发展,需要文件更新频繁以及网络的高度动态性,使得副本的一致性维护亦变得越来越重要.针对这个问题,研究在高度动态的网络环境下,将结点离线率和副本点与非副本之间的转换概率作为依据,构建维护责任点分担owner责任.并用分层式混合推拉式谣言机制传递更新信息,减少冗余信息.实验证明,新算法在更新过程中能维持高的更新成功率和较低的流量开销,更适应动态网络的扩展. 相似文献
6.
云存储环境下,元数据提供数据定位与资源描述服务,云存储系统利用副本技术保障元数据的可用性。为了解决元数据的动态更新导致的元数据副本的不一致,本文从云存储系统中不同元数据对一致性强度需求的差异性出发,提出了基于元数据弹性分级的一致性保障机制。根据元数据访问频率以及更新属性敏感度对元数据更新弹性分级,结合基于读优化的Quorum算法实现元数据更新的分级一致性保障。实验证明该机制可以有效权衡元数据副本可用性、一致性和系统开销,相比单一的一致性策略更为灵活。 相似文献
7.
为了保证服务器节点完全对等的分布式并行数据库系统更新结果一致性,提出基于数据环境一致性的分布式并行更新协议DEC-DP2PC(Distributed and Parallel 2PC Based on Data-Environment-Consistency),对经典2PC(two phase commit)在执行条件、表决内容和次数、全局提交和撤销定义等方面进行了针对性改进。性能分析和测试表明,DEC-DP2PC可有效过滤数据副本分布和版本号等数据环境信息不一致情况下事务的执行,减少全局数据环境一致性维护开销和降低系统平均响应时间。 相似文献
8.
9.
结构化P2P系统通常使用数据复制来提高数据可用性,但P2P环境中的节点搅动、多节点并发更新以及恶意节点的存在也为副本的一致性管理带来了新的挑战.基于协商的算法要求节点间以全交换的方式通讯,在P2P环境中其可伸缩性不够理想.本文针对结构化P2P系统提出一种基于Quorum的副本管理算法:使用混合失效模型降低容错开销,利用DHT服务处理节点搅动,将数据存储与其元信息管理分离,使数据可靠性和数据可用性得以独立调整.模拟实验表明该算法可以明显改善系统的可伸缩性,减少系统的容错开销. 相似文献
10.
针对大量数据副本所带来的资源管理问题,提出一种基于有限编码的多副本分簇管理方法.在该方法中,根据单副本复制产生新副本的过程对副本分级和分簇,通过定义"副本级别+副本顺序"的编码规则对划分后的副本进行编码和组织,并依据编码规则对由于副本的动态调整(增加或撤消)而引起的簇的动态变化进行有效管理.通过该方法,在大量副本之间建立局域集中、广域对等的管理模式,再结合定义的"最小更新传播时间"可以降低大量副本的一致性维护开销.讨论了方法中编码规则与副本规模之间的关系,以及副本失效和恢复时的解决方法.性能测试结果表明,该方法能够有效组织大规模的数据副本,具有较好的可扩展性,对适度的结点失效不敏感,适合更新频繁的应用. 相似文献
11.
12.
在数据复制系统中,主端IO策略必须在保证主端数据视图一致性和从端数据一致性的同时,提高主端请求响应速度。针对已有的主端IO策略中存在的各种缺陷,设计并实现了并行IO策略。在该策略中制定了五条规则,通过按照请求提交的顺序来返回请求成功及更新日志控制信息,保证了主端数据视图一致性和从端数据一致性的要求,同时它对请求进行了并行处理,大大提高了主端IO效率。 相似文献
13.
14.
A warehouse is a data repository containing integrated information for efficient querying and analysis. Maintaining the consistency of warehouse data is challenging, especially if the data sources are autonomous and views of the data at the warehouse span multiple sources. Transactions containing multiple updates at one or more sources, e.g., batch updates, complicate the consistency problem. In this paper we identify and discuss three fundamental transaction processing scenarios for data warehousing. We define four levels of consistency for warehouse data and present a new family of algorithms, the Strobe family, that maintain consistency as the warehouse is updated, under the various warehousing scenarios. All of the algorithms are incremental and can handle a continuous and overlapping stream of updates from the sources. Our implementation shows that the algorithms are practical and realistic choices for a wide variety of update scenarios. 相似文献
15.
16.
17.
Linux平台远程逻辑卷复制系统的设计 总被引:21,自引:1,他引:21
提出了一种Linux平台上远程逻辑卷复制系统的设计方案,论述了它的系统结构及实现方法。该系统不依赖于特殊的存储设备或网络,在复制过程中通过保持主、从两端逻辑卷上数据块的更新顺序来保证数据一致性。系统支持同步和异步两种复制模式,可以适合不同的应用环境,为实现通用、经济的远程数据容灾系统提供了可能。 相似文献
18.
19.
We present an algorithm to impute missingvalues from given dataalone, and analyse its performance. Theproposed procedure is based onnon-numeric rule based data analysis, and aimsto maximise consistency of imputation from known values. Incontrast to the prevailingstatistical imputation algorithms, it does notmake representationalassumptions or presupposes other modelconstraints. Therefore, it is suitablefor a wide variety of data – sets, and can beused as a pre-processing step beforeresorting to harder numerical methods. 相似文献