全文获取类型
收费全文 | 474篇 |
免费 | 35篇 |
国内免费 | 33篇 |
学科分类
工业技术 | 542篇 |
出版年
2024年 | 2篇 |
2023年 | 8篇 |
2022年 | 9篇 |
2021年 | 20篇 |
2020年 | 10篇 |
2019年 | 8篇 |
2018年 | 9篇 |
2017年 | 11篇 |
2016年 | 9篇 |
2015年 | 20篇 |
2014年 | 38篇 |
2013年 | 29篇 |
2012年 | 38篇 |
2011年 | 51篇 |
2010年 | 22篇 |
2009年 | 30篇 |
2008年 | 27篇 |
2007年 | 30篇 |
2006年 | 21篇 |
2005年 | 25篇 |
2004年 | 15篇 |
2003年 | 17篇 |
2002年 | 9篇 |
2001年 | 12篇 |
2000年 | 7篇 |
1999年 | 7篇 |
1998年 | 10篇 |
1997年 | 5篇 |
1996年 | 2篇 |
1995年 | 4篇 |
1994年 | 2篇 |
1993年 | 4篇 |
1991年 | 1篇 |
1990年 | 1篇 |
1989年 | 1篇 |
1987年 | 5篇 |
1986年 | 5篇 |
1985年 | 2篇 |
1984年 | 3篇 |
1983年 | 3篇 |
1981年 | 3篇 |
1979年 | 2篇 |
1973年 | 1篇 |
1964年 | 1篇 |
1958年 | 1篇 |
1954年 | 2篇 |
排序方式: 共有542条查询结果,搜索用时 17 毫秒
111.
基于伸缩窗口和等级调整的SNM改进方法 总被引:1,自引:0,他引:1
对基本邻近排序算法(basic sorted-neighborhood method, SNM)进行分析, 指出其不足, 提出了SNM算法的一种改进方法。采用变步长伸缩窗口, 动态改变检测窗口大小, 避免漏配问题, 并减少不必要的比较。采用动态调整等级法, 根据记录相似度调整字段等级, 并通过等级法将字段等级转换为权重, 解决了人为赋予固定权重主观性强、不准确的问题。通过对实际系统中的数据进行测试, 验证了方法的有效性和优越性。同时, 这两种方法适用于大多数基于排序—合并的相似重复记录检测方法, 提高了相应方法的效率和准确度。 相似文献
112.
《Expert systems with applications》2014,41(5):2415-2423
With the explosive growth of data, storage systems are facing huge storage pressure due to a mass of redundant data caused by the duplicate copies or regions of files. Data deduplication is a storage-optimization technique that reduces the data footprint by eliminating multiple copies of redundant data and storing only unique data. The basis of data deduplication is duplicate data detection techniques, which divide files into a number of parts, compare corresponding parts between files via hash techniques and find out redundant data. This paper proposes an efficient sliding blocking algorithm with backtracking sub-blocks called SBBS for duplicate data detection. SBBS improves the duplicate data detection precision of the traditional sliding blocking (SB) algorithm via backtracking the left/right 1/4 and 1/2 sub-blocks in matching-failed segments. Experimental results show that SBBS averagely improves the duplicate detection precision by 6.5% compared with the traditional SB algorithm and by 16.5% compared with content-defined chunking (CDC) algorithm, and it does not increase much extra storage overhead when SBBS divides the files into equal chunks of size 8 kB. 相似文献
113.
针对我国"胸痛中心"的运行模式,设计一种整合胸痛患者院前、院内救治信息的电子病历,以实现对胸痛病人信息的采集、加工、存储和传输。主要讨论了系统的总体设计以及病历信息采集、任务管理、HL7消息编解码等功能模块的实现。该系统基于Visual Studio 2008+SQL Server 2005开发平台,可以实现病历数据录入、查询、统计及基本的医院管理等功能,并研究与构建了基于HL7标准的功能模块,支持HL7消息编解码及数据传输。通过测试,该系统能有效地支持胸痛中心患者信息管理的应用。 相似文献
114.
李纯 《山东电力高等专科学校学报》2010,13(2):31-32
基建档案管理是高等学校一项重要的管理工作,随着高等学校基建规模的不断扩大和建筑功能的不断提高.应加强基建档案的管理。本文分析了当前基建档案管理中存在的问题,提出加强和改进的对策。 相似文献
115.
徐艳玲 《网络安全技术与应用》2014,(11):67-68
在检测数据库重复记录的研究中,基于BP神经网络的检测(Duplicate Record Detection based on BP Neural Network,简称DRDBPNN)算法的性能与初始的参数设置有很大的关系,从而造成其性能不稳定的缺陷,因此本文提出了一种基于QPSO与BP神经网络的重复记录检测算法(Duplicate Record Detection based on Quantum Particle Swarm Optimization and BP Neural Network,简称DRDQPSQBPNN)。仿真表明,该算法能够有效地提升重复记录的检测效率。 相似文献
116.
试析基于XML的结构化电子病历 总被引:1,自引:0,他引:1
刘巍 《电脑编程技巧与维护》2011,(10):74-75
结构化电子病历系统是电子病历发展的必然阶段,不仅提高电子病历的标准化和有序化,能更好地反映医护者的思路,临床发现、为制定治疗计划提供决策支持,更好地为临床实践提供指导。 相似文献
117.
ABSTRACT Local governments must provide public access to records such as court proceedings, deeds, marriage licenses, birth, and death records, and so on, often on tight budgets. This article focuses on how a local agency, the Clerk of Courts office in Lake County, Florida, used a planning process developed by the National Center for State Courts. This process was loosely coupled with the principles of sensemaking (Weick, 1995) to stay ahead of the curve concerning changes that would significantly affect its records management system. By applying the scanning methods, the organization was able to paint a plausible picture of its future environment that allowed it to attack the issues related to legislative changes in its electronic records management (ERM) practices proactively rather than reactively. 相似文献
118.
一种共享IP流记录分布式平台 总被引:1,自引:1,他引:0
开发了一种基于多个机构之间流量记录共享的分布式平台,平台内的机构在其允许范围内把采集的流记录存储到单独的主机中,然后提供给他人访问服务器的网关.由于保密问题,此平台使用一个预保留、加密和匿名算法,以便流量轨迹数据交换遵从不同规范. 相似文献
119.
120.
针对目前重复数据处理技术的低效性和不可靠性,本文提出了一种基于MD5算法和布鲁姆过滤器的重复数据删除算法。新算法采用两级布鲁姆过滤器并有效结合MDS算法的方式,在发挥布鲁姆过滤器空间效率的同时汲取了MD5算法的可靠性,使得文件级别和数据块级别的重复数据删除策略交替工作。测试分析表明,新算法性能稳定并且实现了高效且可靠的重复数据删除功能。 相似文献