首页 | 官方网站   微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   474篇
  免费   35篇
  国内免费   33篇
工业技术   542篇
  2024年   2篇
  2023年   8篇
  2022年   9篇
  2021年   20篇
  2020年   10篇
  2019年   8篇
  2018年   9篇
  2017年   11篇
  2016年   9篇
  2015年   20篇
  2014年   38篇
  2013年   29篇
  2012年   38篇
  2011年   51篇
  2010年   22篇
  2009年   30篇
  2008年   27篇
  2007年   30篇
  2006年   21篇
  2005年   25篇
  2004年   15篇
  2003年   17篇
  2002年   9篇
  2001年   12篇
  2000年   7篇
  1999年   7篇
  1998年   10篇
  1997年   5篇
  1996年   2篇
  1995年   4篇
  1994年   2篇
  1993年   4篇
  1991年   1篇
  1990年   1篇
  1989年   1篇
  1987年   5篇
  1986年   5篇
  1985年   2篇
  1984年   3篇
  1983年   3篇
  1981年   3篇
  1979年   2篇
  1973年   1篇
  1964年   1篇
  1958年   1篇
  1954年   2篇
排序方式: 共有542条查询结果,搜索用时 17 毫秒
111.
基于伸缩窗口和等级调整的SNM改进方法   总被引:1,自引:0,他引:1  
对基本邻近排序算法(basic sorted-neighborhood method, SNM)进行分析, 指出其不足, 提出了SNM算法的一种改进方法。采用变步长伸缩窗口, 动态改变检测窗口大小, 避免漏配问题, 并减少不必要的比较。采用动态调整等级法, 根据记录相似度调整字段等级, 并通过等级法将字段等级转换为权重, 解决了人为赋予固定权重主观性强、不准确的问题。通过对实际系统中的数据进行测试, 验证了方法的有效性和优越性。同时, 这两种方法适用于大多数基于排序—合并的相似重复记录检测方法, 提高了相应方法的效率和准确度。  相似文献   
112.
With the explosive growth of data, storage systems are facing huge storage pressure due to a mass of redundant data caused by the duplicate copies or regions of files. Data deduplication is a storage-optimization technique that reduces the data footprint by eliminating multiple copies of redundant data and storing only unique data. The basis of data deduplication is duplicate data detection techniques, which divide files into a number of parts, compare corresponding parts between files via hash techniques and find out redundant data. This paper proposes an efficient sliding blocking algorithm with backtracking sub-blocks called SBBS for duplicate data detection. SBBS improves the duplicate data detection precision of the traditional sliding blocking (SB) algorithm via backtracking the left/right 1/4 and 1/2 sub-blocks in matching-failed segments. Experimental results show that SBBS averagely improves the duplicate detection precision by 6.5% compared with the traditional SB algorithm and by 16.5% compared with content-defined chunking (CDC) algorithm, and it does not increase much extra storage overhead when SBBS divides the files into equal chunks of size 8 kB.  相似文献   
113.
针对我国"胸痛中心"的运行模式,设计一种整合胸痛患者院前、院内救治信息的电子病历,以实现对胸痛病人信息的采集、加工、存储和传输。主要讨论了系统的总体设计以及病历信息采集、任务管理、HL7消息编解码等功能模块的实现。该系统基于Visual Studio 2008+SQL Server 2005开发平台,可以实现病历数据录入、查询、统计及基本的医院管理等功能,并研究与构建了基于HL7标准的功能模块,支持HL7消息编解码及数据传输。通过测试,该系统能有效地支持胸痛中心患者信息管理的应用。  相似文献   
114.
基建档案管理是高等学校一项重要的管理工作,随着高等学校基建规模的不断扩大和建筑功能的不断提高.应加强基建档案的管理。本文分析了当前基建档案管理中存在的问题,提出加强和改进的对策。  相似文献   
115.
在检测数据库重复记录的研究中,基于BP神经网络的检测(Duplicate Record Detection based on BP Neural Network,简称DRDBPNN)算法的性能与初始的参数设置有很大的关系,从而造成其性能不稳定的缺陷,因此本文提出了一种基于QPSO与BP神经网络的重复记录检测算法(Duplicate Record Detection based on Quantum Particle Swarm Optimization and BP Neural Network,简称DRDQPSQBPNN)。仿真表明,该算法能够有效地提升重复记录的检测效率。  相似文献   
116.
试析基于XML的结构化电子病历   总被引:1,自引:0,他引:1  
结构化电子病历系统是电子病历发展的必然阶段,不仅提高电子病历的标准化和有序化,能更好地反映医护者的思路,临床发现、为制定治疗计划提供决策支持,更好地为临床实践提供指导。  相似文献   
117.
ABSTRACT

Local governments must provide public access to records such as court proceedings, deeds, marriage licenses, birth, and death records, and so on, often on tight budgets. This article focuses on how a local agency, the Clerk of Courts office in Lake County, Florida, used a planning process developed by the National Center for State Courts. This process was loosely coupled with the principles of sensemaking (Weick, 1995 Weick, K. E. 1995. Sensemaking in organizations. Thousand Oaks, CA: Sage Publications.  [Google Scholar]) to stay ahead of the curve concerning changes that would significantly affect its records management system. By applying the scanning methods, the organization was able to paint a plausible picture of its future environment that allowed it to attack the issues related to legislative changes in its electronic records management (ERM) practices proactively rather than reactively.  相似文献   
118.
一种共享IP流记录分布式平台   总被引:1,自引:1,他引:0  
开发了一种基于多个机构之间流量记录共享的分布式平台,平台内的机构在其允许范围内把采集的流记录存储到单独的主机中,然后提供给他人访问服务器的网关.由于保密问题,此平台使用一个预保留、加密和匿名算法,以便流量轨迹数据交换遵从不同规范.  相似文献   
119.
大数据集相似重复记录检测和识别中,数据源组成复杂、表征数据记录的特征属性过多,因而检测精度不高、执行检测的代价过大.针对这些问题,提出了一种分组模糊聚类的特征优选方法.首先进行分组记录的属性处理,以有效降低记录属性的维数,并获得分组中的代表性记录,然后采用一种相似度比较计算方法进行组内相似重复记录的检测.理论分析和实验...  相似文献   
120.
针对目前重复数据处理技术的低效性和不可靠性,本文提出了一种基于MD5算法和布鲁姆过滤器的重复数据删除算法。新算法采用两级布鲁姆过滤器并有效结合MDS算法的方式,在发挥布鲁姆过滤器空间效率的同时汲取了MD5算法的可靠性,使得文件级别和数据块级别的重复数据删除策略交替工作。测试分析表明,新算法性能稳定并且实现了高效且可靠的重复数据删除功能。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号