全文获取类型
收费全文 | 711篇 |
免费 | 101篇 |
国内免费 | 109篇 |
学科分类
工业技术 | 921篇 |
出版年
2023年 | 9篇 |
2022年 | 7篇 |
2021年 | 14篇 |
2020年 | 10篇 |
2019年 | 17篇 |
2018年 | 10篇 |
2017年 | 16篇 |
2016年 | 18篇 |
2015年 | 22篇 |
2014年 | 50篇 |
2013年 | 48篇 |
2012年 | 48篇 |
2011年 | 61篇 |
2010年 | 75篇 |
2009年 | 74篇 |
2008年 | 71篇 |
2007年 | 72篇 |
2006年 | 55篇 |
2005年 | 53篇 |
2004年 | 23篇 |
2003年 | 27篇 |
2002年 | 30篇 |
2001年 | 17篇 |
2000年 | 12篇 |
1999年 | 19篇 |
1998年 | 4篇 |
1997年 | 13篇 |
1996年 | 15篇 |
1995年 | 6篇 |
1994年 | 5篇 |
1993年 | 1篇 |
1992年 | 5篇 |
1991年 | 8篇 |
1990年 | 2篇 |
1989年 | 2篇 |
1986年 | 2篇 |
排序方式: 共有921条查询结果,搜索用时 15 毫秒
911.
912.
913.
914.
在三维对象体模型中,大量基本拓扑对象点、线、面、体元在构建时,需要进行匹配,确认其在存储列表中唯一存在,以维系拓扑系统的有效性。本文在对顶点按照一定的规则进行排序的基础上,采用平衡二叉树进行存储,结合三维空间对象之间的拓扑关系,有效地实现了对象的快速匹配查询,大大提高了拓扑对象在确保唯一性基础上的生成速度,为体模型中大规模三维拓扑数据的快速构建奠定了基础。并在对地层的四面体剖分中得到正确验证。 相似文献
915.
基于ROC曲线分析的AUC方法最初用于评估二类分类,不能直接解决多类别的评估,如何有效地将其推广到多类别评估中是研究的热点问题。首先介绍一种基于一对多方法的多类别AUC评估方法F-AUC,在此基础上根据二叉树的构造思想提出一种新的多类别评估方法B-AUC。该方法在MBNC实验平台上编程实现,并和F-AUC方法进行比较和分析,结果表明该方法是可行的,在评估效果和速度效果上有良好的性能。 相似文献
916.
一种基于自动机的分词方法 总被引:3,自引:0,他引:3
该文介绍一种简洁有效的快速分词方法,并通过理论分析和实验对比说明几种分词方法的效率差异,以说明文章所提出方法的有效性。 相似文献
917.
该文涉及的约束逻辑程序设计(CLP)是一在二叉树上进行搜索的过程,提高搜索效率是CLP的主要研究方向之一。在CLP中约束推理机是核心,由变量组、约束过滤器、临时容器、推理引擎组成。在介绍了约束推理机激活过滤器,对变量进行区间压缩后,提出引入变量事件,总结为三种类型:SINGLE、BOUND和DOMCHG,用于减少过滤器的激发次数。实验结果表明,变量事件能够促进约束推理机的搜索效率,缩短二叉树搜索的时间,可以更快寻找到答案。 相似文献
918.
919.
过去的许多研究表明在实际张量数据中密集的部分存在着异常或者欺诈行为,如微博僵尸粉行为、网络攻击等。因此,研究人员提出了各种各样的方法来针对密集块的提取,但是这些方法存在着低准确率和召回率的缺点。针对这些缺点,提出了一种基于二叉树搜索的多密集块检测方法,简称DDB-BST,通过对张量数据进行基于评价指标的局部搜索,找到评价指标最高的子张量数据,将数据分成左右子节点,通过不断比较父节点和左右子节点评价指标值的数值关系,判断二叉树生长是否终止。对终止条件给出了严格的数学证明。在合成数据集以及真实数据集上进行实验,发现DDB-BST比现有的M-zoom多密集块方法的F1值提高近30%。 相似文献
920.
生物滞留系统具有雨水径流削减和污染控制双重功能,但其对重金属的去除效果易受设计参数和环境因素的影响而不稳定。基于文献数据驱动,利用CART算法构建了生物滞留系统设计参数和环境变量的二叉树机器学习模型,并对生物滞留系统去除Cu、Zn和Pb等典型重金属的影响因素进行识别。结果表明,影响Cu和Pb去除的最敏感因素为入流浓度,而影响Zn去除的最敏感因素为介质土深度。二叉树模型对3种重金属影响因素的识别准确率(p0)分别为0.86、0.80和0.74,分类性能均取得了中等以上的一致性,Cohen’s Kappa系数(Ka)分别可达到0.72、0.60和0.48。研究证实,单变量相关性分析法难以识别出生物滞留系统去除典型重金属的敏感因素,而基于文献数据驱动的机器学习方法不仅可有效挖掘出生物滞留系统中敏感因素的影响程度,还能识别出相应的阈值,可为后续优化设计和运维管理提供一定参考。 相似文献