首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 156 毫秒
1.
为了实现对存储测试系统在某些应用场合中数据保密的需求,提出了一种基于AES算法的数据加密系统设计方案,并完成了系统的算法仿真与硬件设计。系统的硬件以Xilinx公司的FPGA为主要芯片,实现数据采集与加密功能。采用VHDL语言来描述AES算法的硬件实现,对AES加密系统的整体结构和各个子模块进行了仿真与优化。从仿真测试结果看,完全能够满足存储测试系统的加密要求,达到了设计要求。  相似文献   

2.
在数据库、深度学习、高效存储等数据读取性能敏感的应用场景中,数据解压性能对上层应用的服务质量有着重要影响.LZ4无损数据压缩算法具备高速解压特性,因此被广泛应用在高速解压场景中,但其运行需要消耗大量CPU资源.为减少LZ4数据解压开销,学界和业界提出了基于FPGA的LZ4数据解压加速方法 .但现有方法大多采用逐字节顺序处理的计算模式,导致并行度和吞吐率存在较大不足.因此,设计实现高性能LZ4数据解压加速方法成为当前研究亟需解决的关键问题.以LZ4解压的高性能加速为目标,本文研究从多层次对LZ4解压进行并行加速设计,提出了一种基于FPGA加速的高性能LZ4数据解压方法 .首先,本方法研究对LZ4序列解析过程进行并行化改进,设计实现了一个基于多字段并行解析方法的并行化序列解析器,将吞吐率从每周期单字节扩展到每周期多字节.此外,本方法对序列解析器中的高时延长度字段解析逻辑进行优化改进,设计了基于二分法的最大匹配长度快速解析方法,显著减小序列解析器的关键路径时延,使得改进后的设计时钟频率比改进前提高了约21%.其次,基于并行化序列解析器,本方法设计实现了一个高性能数据解压引擎.该引擎将序列解析...  相似文献   

3.
主要介绍了一种基于DSP的数据压缩系统的硬件电路的实现过程,文章把整个硬件系统分成2个模块来介绍:数据采集模块以及DSP解算模块.数据采集模块采集前端信号在CPLD的控制下经过AD和FIFO把数据写入DSP解算模块,DSP接收到信号后,把数据进行压缩.每个模块从核心器件的选择、硬件电路的总体设计方案以及实现过程进行了介绍.实验表明该方案是行之有效的.  相似文献   

4.
为了使NAND Flash固态盘的数据在存取过程中被透明加解密且提高整个安全存储系统的集成度,在分析固态盘体系结构的基础上,提出了在固态盘内部集成硬件加密功能的方法,并给出了加密固态盘的设计方案;利用FPGA设计实现了嵌入到固态盘内的硬件加密模块,并结合通用的ATA Flash盘控制器和NAND Flash芯片实现了完整的加密固态盘;实验结果表明,该加密固态盘实现了全盘数据加密,而且由于加密模块全硬件实现,加解密速度快且不占用系统资源,增加加密模块后不影响固态盘的性能。  相似文献   

5.
基于Nios Ⅱ的语音加密传输系统设计   总被引:1,自引:0,他引:1  
设计并实现了一个基于Nios Ⅱ的语音加密传输系统。介绍了进行语音信号处理的功能模块,包括语音采集回放模块、基于G.729A的语音压缩与解压缩模块和基于AES的数据加解密模块。在控制模块的协调下,使得语音数据通过MODEM能够在公共电话网中安全地传输,实现了语音的保密通信。  相似文献   

6.
卫星数据压缩要求实时压缩、低比特率和良好的图像质量,系统压缩算法选择基于定点叠式变换的低复杂度图像压缩方法,给出了定点叠式变换的实现流程和一种改进的零数编码的思路;在综合考虑成本、功耗、数据接口和处理能力的基础上,提出了多DSP FPGA的硬件方案,主要由DSP完成压缩运算,型号选取TMS320C6416,对压缩算法的DSP实现中的一些关键问题,如数据溢出、代码优化、并行计算等技术进行了研究,以一组遥感灰度图像为样本,分4:1和8:1两种压缩比对数据压缩模块进行了测试;在CCD相机时钟频率为50 MHz、帧频为1.3 K、每帧4096字节的输出条件下,每个DSP可以处理两路图像数据,压缩图像质量良好.  相似文献   

7.
为解决实时数据库数据量大导致存储困难等问题,提出一种分类的数据压缩算法,实现对实时数据库数据的无损和高效压缩。首先将实时数据库的数据分为数值、时间戳和质量码3部分,然后根据每种数据的特征形态,将LZ78和LZW数据压缩算法融合,分别设计对应的数据压缩算法。实验结果表明,该算法在提高数据库的实际存储容量的同时也提高了实时数据库的实时性。   相似文献   

8.
为了研究LZ77算法的对文本文件的压缩性能,在分析LZ77算法的基础上给出了实现压缩和解压缩软件的方法,并且采用该软件分别对英文文本和中文文本压缩情况进行了测试,最后给出了测试结果分析。  相似文献   

9.
12月10日获悉:CA公司交付了第一个包括端对端智能化数据压缩的备份解决方案ARCserve 6.5 for Windows NT,节省了备份煤体40%的空间并提高了网络性能。在进行硬件压缩的同时,备份服务器或Windows客户端选件上进行压缩的数据,将保持休止状态。它还包括端对端加密特性,提供额外的安全,管理员可以加密并对数据进行口令保护,以便在数据通过网络进行传输或存储时确保秘密性,用户可以为特定的工作指定加密,并能够防止没有密钥的访问。  相似文献   

10.
为缓解存储系统中软件压缩算法对计算资源的大量占用,使用LZ4算法设计了一种无损压缩电路。提出了一种循环队列结构的滑动字典,结合散列表模块构建LZ4无损压缩电路,最后使用Calgary和Canterbury语料库,在Xilinx KC705 FPGA平台对电路进行验证并与软件压缩对比。结果表明所设计的LZ4无损压缩电路保持了软件压缩相同的压缩率的同时,在压缩效率上远超过软件压缩。  相似文献   

11.
Data compression techniques can alleviate low-bandwidth problems in multigigabit networks, and are especially useful when combined with encryption. The Titan II is a hardware compressor/decompressor core capable of speeds of up to 10 gigabits per second. Its compression algorithm is a variation of the Lempel-Ziv (LZ) algorithm that uses part of the previous input stream as the dictionary.  相似文献   

12.
We apply Linear Error Correction (LEC) code to a novel encoding scheme to assure two fundamental requirements for transmission channels and storage units: security and dependability. Our design has the capacity to adapt itself to different applications and their various characteristics such as availability, error rate, and vulnerabilities. Based on simple logic operations, our scheme affords fast encryption, scalability (dual or more column erasures), and flexibility (LEC encoder employed as a front end to any conventional compression scheme). Performance results are very promising: Experiments on dual erasures outperform conventional compression algorithms including Arithmetic Coding, Huffman, and LZ77.  相似文献   

13.
基于字符串匹配的通用数据压缩算法   总被引:1,自引:0,他引:1  
本文主要介绍基于字符串匹配的数据压缩算法原理,该算法从多方面时著名LZ77算法进行了改进,我们的算法所用到的工作缓冲区是一个循环历史表,摈弃了输入符号超前缓冲区;结果,匹配过程是边接收输入边进行,无需等待一组输入数据填满超前缓冲区才开始,同时,最大争配长度不再受超前缓冲区大小的限制,而且,不再需要做大量的平移工作缓立足点冲区的操作,另外,还涉及一些其他方面的改进,包括改等长压缩码为变长码和引入匹配  相似文献   

14.
协同产品开发中的产品模型轻量化技术   总被引:6,自引:1,他引:5  
针对网络环境下协同产品开发中复杂产品模型数据交换、远程传输困难等瓶颈问题。提出一种复杂产品模型数据轻量化算法.该算法基于非几何信息过滤,曲线、曲面简化,通用压缩算法数据压缩等步骤对初始产品模型进行简化.文中算法已应用于协同交互系统InteView2.0中.在相同逼近精度下,轻量化后的模型比原系统输出的VRML格式文件具有更高的压缩比.  相似文献   

15.

The bulk of Internet interactions is highly redundant and also security sensitive. To reduce communication bandwidth and provide a desired level of security, a data stream is first compressed to squeeze out redundant bits and then encrypted using authenticated encryption. This generic solution is very flexible and works well for any pair of (compression, encryption) algorithms. Its downside, however, is the fact that the two algorithms are designed independently. One would expect that designing a single algorithm that compresses and encrypts (called compcrypt) should produce benefits in terms of efficiency and security. The work investigates how to design a compcrypt algorithm using the ANS entropy coding. First, we examine basic properties of ANS and show that a plain ANS with a hidden encoding table can be broken by statistical attacks. Next, we study ANS behavior when its states are chosen at random. Our compcrypt algorithm is built using ANS with randomized state jumps and a sponge MonkeyDuplex encryption. Its security and efficiency are discussed. The design provides 128-bit security for both confidentiality and integrity/authentication. Our implementation experiments show that our compcrypt algorithm processes symbols with a rate up to 269 MB/s (with a slight loss of compression rate) 178 MB/s.

  相似文献   

16.
This paper discusses a framework to apply compute-intensive data transforms (codecs) to data flowing through a channel between a CPU and an FPGA kernel on a heterogeneous streaming system. Codecs such as parallel compression are applied to data across a PCI-express channel in real-time, aiming to increase the effective bandwidth by using spare resources in both software and hardware. Other codecs such as encryption can be applied while minimising the loss in performance. Real-time encoding/decoding is performed by breaking up the data stream into segments for multiple threads to process different segments. This allows the interleaving of encoding, transmission and decoding on the CPU, hence the framework functions as a software pipeline. The capabilities of the framework are demonstrated using 4 compression codecs and an encryption codec on a Maxeler system. For example, 1.51x and 1.85x speed ups are observed respectively when delta compression and double to single precision floating point conversion are applied to the data being transmitted to/from an identity kernel on the FPGA. Similarly, a 1.61x speed up is observed when double-to-single precision floating point conversion is applied to data being transmitted to/from an FPGA kernel performing a Fast Fourier Transform.  相似文献   

17.
利用Matlab平台设计了基于压缩感知的图片压缩和加密GUI系统,主要解决海量图片的存储空间利用率低和图片数据安全问题.本系统采用小波变换基将图片系数稀疏化,将使用高斯随机矩阵进行压缩测量后得到的数据存储在服务器中,以减少存储空间,提高服务器空间利用率;同时将测量矩阵作为密钥进行加密,增加了图片信息的安全性,在需要访问时使用密钥矩阵和重构算法重构出原始图片.该GUI系统能够直观反映基于压缩感知的图片压缩与加密系统的工作过程.并且通过MCC将代码独立化为可执行exe文件,以便于直接对图片进行压缩、加密、存取和重构.  相似文献   

18.
由于图像、音频、视频等媒体数据具有数据量大,实时性要求高等特点,这对于加密算法也提出了相应的要求,而且由于采用传统的基于数论的加密算法对数据完全加密不能满足实时性要求,因此产生了对部分加密算法的研究,但这些算法也不能完全保证数据格式不变和压缩比不变等更高的要求;如果将压缩编码和加密过程相结合,则既能满足实时性要求,又能保持数据格式不变。鉴于四叉树结构常被应用于图像编码中,为此提出了两种四叉树置乱算法,并将其用于四叉树编码、小波零树编码、基于四叉树的分形编码等图像和视频编码中。理论分析和实验结果表明,由于这些算法将加密与编码过程相结合,因此具有以下优点:具有较高的安全性,且加密效果好;不仅能保持编码格式不变,而且便于对数据的直接操作;既能保持压缩比不变,又不增加额外数据;具有较快速度,能满足实时性要求等。  相似文献   

19.
Cloud backup has been an important issue ever since large quantities of valuable data have been stored on the personal computing devices. Data reduction techniques, such as deduplication, delta encoding, and Lempel-Ziv (LZ) compression, performed at the client side before data transfer can help ease cloud backup by saving network bandwidth and reducing cloud storage space. However, client-side data reduction in cloud backup services faces efficiency and privacy challenges. In this paper, we present Pangolin, a secure and efficient cloud backup service for personal data storage by exploiting application awareness. It can speedup backup operations by application-aware client-side data reduction technique, and mitigate data security risks by integrating selective encryption into data reduction for sensitive applications. Our experimental evaluation, based on a prototype implementation, shows that our scheme can improve data reduction efficiency over the state-of-the-art methods by shortening the backup window size to 33%-75%, and its security mechanism for' sensitive applications has negligible impact on backup window size.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号