首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 109 毫秒
1.
设计和实现了一种基于内容的海量监控视频的多层次检索系统。该系统首先从监控视频中提取关键帧图像,其次利用行人检测、人脸识别及车辆检测等算法将关键帧中的行人图像、人脸图像和车辆图像等感兴趣目标提取出来,然后提取这些图像的颜色、纹理等特征,利用改进的LIRe(Lucene Image Retrieval)建立分布式的特征库,最终形成了多层次的信息数据库。实验表明,该系统具有较高的检索准确率和较快的检索速率,并支持海量监控视频的检索。  相似文献   

2.
在车载监控过程中,为提高视频检索的效率,提出了一种快速检索方法.首先,采用一种改进的基于块匹配的方法快速消除视频抖动,完成图像序列预处理;然后根据不同用户需求,通过自动和主动两种方式检索视频.实验结果表明,该方法在不遗漏重要画面的同时,能够快速检索到用户感兴趣的视频片段,为用户减少了大量的视频浏览时间.  相似文献   

3.
使用通用搜索引擎从大量互联网站点中检索违规视频网站或节目,其检索的结果与搜索需求不甚相关,获知的信息缺乏针对性,无法获取满意的查全率和查准率。本文采用了元搜索分布式搜索架构,结合用户反馈经验,对互联网视频节目的相关信息进行采集和索引检索,实现了面向互联网在线视频主题管理的搜索引擎系统。实验数据显示与通用搜索引擎相比,该搜索引擎能更好地实现视频资源的主题聚集,极大地提升了对相关资源的搜索效率。  相似文献   

4.
车联网高级安全服务中,智能网联车辆配备了摄像头,可以拍摄周围的视频,用于安全、交通监控和监视等目的。车辆将获取的视频上传到边缘计算节点后,可以对视频进行分析和备份,以满足不同的安全驾驶需求。然而,车辆连续直接向边缘计算节点上传生成的视频内容会非常消耗带宽,并消耗大量的能量。基于该问题,提出一种面向智能网联汽车边缘网络的分布式端-边协同算法。针对车联网高可靠低时延内容传输的特点,引入有限块长度编码机制。同时,引入车辆视频信息源的压缩编码功率消耗,建立车辆能耗模型。根据车辆视频信息源的视频质量要求,通过调整视频编码码率、信息源传输速率,以及车辆多路径路由的决策,提出一种完全分布式的优化算法,以提高网络资源利用率,并保证单个车辆的能耗公平性。  相似文献   

5.
MP2P技术中以网络资源的搜索最为重要,因此文章研究了当前一段时间出现的性能出色的资源搜索算法,提高文件检索效率和减少无线环境中的网络拥堵等问题,重点分析了几种比较典型的资源搜索算法:集中式和洪泛式,该检索方式帮助节点在邻居间有效地进行资源请求;分布式资源搜索,有效地提高了查询效率;有基于组或者超级节点的,查询时间缩短了,但是投入的代价偏大。文章对这几种资源搜索算法做了总结和详细对比。  相似文献   

6.
针对智能交通对分布式智能视频监控的需求,设计了基于DM6446嵌入式系统的视频车辆检测跟踪系统。提出一套简单有效的车辆检测跟踪算法,包括自适应背景更新算法、基于边缘检测和最优双阈值分割融合的运动区域检测、改进的快速连通区域判断方法以及基于多特征的跟踪算法。同时,对DM6446平台软硬件及其开发方法进行介绍,并针对该平台介绍了如何移植和代码优化。最终通过在DM6446平台实际运行表明,该系统能实时有效地检测和跟踪车辆,具有较高准确率和稳健性。  相似文献   

7.
全文检索技术在视频素材检索中的应用   总被引:3,自引:0,他引:3  
1引言视频素材的检索一般可以采用以下几种方式 :(1)基于关系型数据库的检索方式 ,按照字段项目、要素分类检索出所需素材 ,比如通过节目标题、素材主题、行业类别、编导、摄制人、制作时间等字段项目检索 ;(2)基于浏览方式的关键帧查找方式 (以上两种方式单独或结合可以满足部分用户的简单检索需求 ) ;(3)基于视频内容的检索技术 ,该技术可以通过示例和描述的方法 ,对视频信息的颜色、纹理、形状和运动特征进行检索。但是 ,以上几种检索方式各自存在一些不足。以关系型数据库为例 ,如果需检索的素材属于非主题概念 ,即在素材数据库字段…  相似文献   

8.
在面对海量教育数据处理情况时,传统的协同过滤算法在单机上训练和测试效率低下,针对该问题,提出了基于Hadoop分布式平台和Spark并行计算模型的无中间结果输出改进型教育资源推荐策略,该策略较好地发挥了Spark的迭代计算能力优势,在应用于教育资源推荐时,比较了传统算法与改进算法在分布式情况和非分布式情况下的推荐效率和推荐质量的情况.实验结果表明,利用Spark计算模型实现协同过滤算法能够有效地提高教育资源个性化推荐的推荐质量以及推荐效率.  相似文献   

9.
提出了一种基于多特征融合的新闻节目高效检索方法.该方法充分利用媒资管理系统中新闻视频的文字描述和关键帧的图像特征,能够实现视频节目快速、准确的检索,提升新闻检索的性能.将文字描述、人脸和场景图像作为搜索项,通过Fisherfaces和LBP算子相结合的人脸识别算法,以及基于重要性加权的局部直方图匹配算法,实现样例图像与关键帧的匹配.实验结果表明,该方法能够提升媒资管理系统中新闻节目检索的准确度和效率,满足新媒体时代节目快速制作和发布的要求.  相似文献   

10.
基于内容的多媒体信息检索   总被引:4,自引:0,他引:4  
较系统地介绍了基于内容的多媒体检索技术。对于基于内容的视频检索技术,介绍了基于内容的视频处理、视频检索的方式和ML算法在视频检索中的应用。此外,还介绍了基于内容的压缩方法MPEG-4、MPEG-7、MPEG-21等。  相似文献   

11.
Video retrieval methods have been developed for a single query. Multi-query video retrieval problem has not been investigated yet. In this study, an efficient and fast multi-query video retrieval framework is developed. Query videos are assumed to be related to more than one semantic. The framework supports an arbitrary number of video queries. The method is built upon using binary video hash codes. As a result, it is fast and requires a lower storage space. Database and query hash codes are generated by a deep hashing method that not only generates hash codes but also predicts query labels when they are chosen outside the database. The retrieval is based on the Pareto front multi-objective optimization method. Re-ranking performed on the retrieved videos by using non-binary deep features increases the retrieval accuracy considerably. Simulations carried out on two multi-label video databases show that the proposed method is efficient and fast in terms of retrieval accuracy and time.  相似文献   

12.
随着视频获取设备和技术的不断发展,视频数量增长快速,在海量视频中精准查找目标视频片段是具有挑战的任务。跨模态视频片段检索旨在根据输入一段查询文本,模型能够从视频库中找出符合描述的视频片段。现有的研究工作多是关注文本与候选视频片段的匹配,忽略了视频上下文的“语境”信息,在视频理解时,存在对特征关系表达不足的问题。针对此,该文提出一种基于显著特征增强的跨模态视频片段检索方法,通过构建时间相邻网络学习视频的上下文信息,然后使用轻量化残差通道注意力突出视频片段的显著特征,提升神经网络对视频语义的理解能力。在公开的数据集TACoS和ActivityNet Captions的实验结果表明,该文所提方法能更好地完成视频片段检索任务,比主流的基于匹配的方法和基于视频-文本特征关系的方法取得了更好的表现。  相似文献   

13.
视频信息检索与其他多媒体检索的最大不同在于视频信息量较大,因此进行视频间相似度计算时的计算量较大。此外,对视频特征的提取中常常忽略视频帧之间的时间相关性,从而导致特征提取不充分,影响视频检索的精度。为此,文中提出基于三维卷积和哈希方法的视频检索方法。该方法构建了一个端到端的框架,使用三维卷积神经网络来提取视频中代表帧的特征,并将视频特征映射到低维的汉明空间中去,在汉明空间计算相似度。在两个视频数据集下的实验结果表明,相较于当前最新的视频检索算法,文中所提方法在精度上有较大的提升。  相似文献   

14.
体育视频中事件的检测是基于内容的体育视频检索的前提.根据足球比赛视频的特点,提出了一种有效的射门镜头检测方法,即利用主颜色区域检测和投影法来检测射门镜头,从而实现了按射门镜头对视频进行检索.最后给出实验结果及分析.  相似文献   

15.
16.
We have proposed a new spatio-temporal knowledge structure called 3D C-string to represent symbolic videos accompanying with the string generation and video reconstruction algorithms. In this paper, we extend the idea behind the similarity retrieval of images in 2D C+-string to 3D C-string. Our extended approach consists of two phases. First, we infer the spatial relation sequence and temporal relations for each pair of objects in a video. Second, we use the inferred relations to define various types of similarity measures and propose the similarity retrieval algorithm. By providing various types of similarity between videos, our proposed similarity retrieval algorithm has discrimination power about different criteria. Finally, some experiments are performed to show the efficiency of the proposed approach.  相似文献   

17.
现有的分布式转码系统大多没有考虑到根据计算节点的处理能力分配转码任务量,对转码过程造成影响,导致转码效率降低。针对这一问题,在对现有Max-Min算法的研究基础上,提出一种新的任务调度算法。利用佩奇排名算法评估机器转码性能,输入视频被分成大小不同的段,依据其复杂度和机器的转码能力进行映射。处理能力强的节点将分配到更多的视频块,最终所有计算节点的完成时间得到均衡化。实验结果表明,该算法能够显著提升视频转码效率,在很大程度上改善了云转码系统。  相似文献   

18.
Video hashing is a useful technique of many multimedia systems, such as video copy detection, video authentication, tampering localization, video retrieval, and anti-privacy search. In this paper, we propose a novel video hashing with secondary frames and invariant moments. An important contribution is the secondary frame construction with 3D discrete wavelet transform, which can reach initial data compression and robustness against noise and compression. In addition, since invariant moments are robust and discriminative features, hash generation based on invariant moments extracted from secondary frames can ensure good classification of the proposed video hashing. Extensive experiments on 8300 videos are conducted to validate efficiency of the proposed video hashing. The results show that the proposed video hashing can resist many digital operations and has good discrimination. Performance comparisons with some state-of-the-art algorithms illustrate that the proposed video hashing outperforms the compared algorithms in classification in terms of receiver operating characteristic results.  相似文献   

19.
Overlay text brings important semantic clues in video content analysis such as video information retrieval and summarization, since the content of the scene or the editor's intention can be well represented by using inserted text. Most of the previous approaches to extracting overlay text from videos are based on low-level features, such as edge, color, and texture information. However, existing methods experience difficulties in handling texts with various contrasts or inserted in a complex background. In this paper, we propose a novel framework to detect and extract the overlay text from the video scene. Based on our observation that there exist transient colors between inserted text and its adjacent background, a transition map is first generated. Then candidate regions are extracted by a reshaping method and the overlay text regions are determined based on the occurrence of overlay text in each candidate. The detected overlay text regions are localized accurately using the projection of overlay text pixels in the transition map and the text extraction is finally conducted. The proposed method is robust to different character size, position, contrast, and color. It is also language independent. Overlay text region update between frames is also employed to reduce the processing time. Experiments are performed on diverse videos to confirm the efficiency of the proposed method.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号