全文获取类型
收费全文 | 1315篇 |
免费 | 258篇 |
国内免费 | 237篇 |
学科分类
工业技术 | 1810篇 |
出版年
2024年 | 11篇 |
2023年 | 31篇 |
2022年 | 25篇 |
2021年 | 49篇 |
2020年 | 57篇 |
2019年 | 93篇 |
2018年 | 57篇 |
2017年 | 75篇 |
2016年 | 118篇 |
2015年 | 120篇 |
2014年 | 166篇 |
2013年 | 144篇 |
2012年 | 169篇 |
2011年 | 133篇 |
2010年 | 113篇 |
2009年 | 98篇 |
2008年 | 74篇 |
2007年 | 62篇 |
2006年 | 25篇 |
2005年 | 22篇 |
2004年 | 28篇 |
2003年 | 14篇 |
2002年 | 13篇 |
2001年 | 15篇 |
2000年 | 26篇 |
1999年 | 18篇 |
1998年 | 9篇 |
1997年 | 9篇 |
1996年 | 6篇 |
1995年 | 5篇 |
1994年 | 13篇 |
1993年 | 3篇 |
1992年 | 1篇 |
1990年 | 3篇 |
1989年 | 5篇 |
排序方式: 共有1810条查询结果,搜索用时 15 毫秒
91.
针对基于传统梯度方向直方图特征的目标识别算法(HOG+SVM)在目标发生仿射变化时识别效果较差的问题,该文提出一种基于仿射梯度方向直方图特征的目标识别算法(AHOG+SVM).通过提取多尺度金字塔梯度图像的 HOG 特征,提高了算法的尺度不变性;通过将平面 HOG 栅格拓展至3维 HOG 栅格,并根据目标的世界坐标系与图像坐标系的映射关系将3维 HOG 栅格映射为2维 HOG 仿射栅格,最后对仿射栅格内的 HOG 特征进行仿射逆变换,以达到增强算法旋转不变性与错切不变性的目的.多组实验结果表明,该文提出的算法能够解决在目标识别过程中由尺度变化、旋转变化和错切变化(3D 视角变化)所造成的识别率较低的问题,性能优于 HOG+SVM算法. 相似文献
92.
针对图像区域的复制-变换-移动-粘贴篡改,建立了相应的篡改模型,提出了基于SIFT标记图特征向量的盲鉴别算法,能够有效地检测并定位经过旋转、缩放变换的篡改区域,而且能够抵抗高斯模糊、高斯白噪声和JPEG重压缩等后处理。与基于传统SIFT特征向量的检测算法相比,该算法对篡改区域的缩放变换具有更高的鲁棒性。 相似文献
93.
针对复杂海面环境造成的图像干扰变形给无人机着舰过程中人工标识的识别带来的困难,采用了一种基于仿射不变矩和支持向量机(SVM)的识别方法,首先采集各种变形下的适量标识样本,经过适当的预处理之后,提取其仿射不变矩,然后送入 SVM进行训练识别,并且给出了在 DSP 系统内基于上述流程的实现方法。实验表明,该方案对于图像在各种小幅度干扰变形下的识别率均达到了90%以上,平均每帧测试时间为170 ms,对于旋翼型无人机自主着舰具有一定的实用性。 相似文献
94.
提出一种适合智能变电站巡检机器人室外工作环境的对变电站双指针式仪表设备读数的识别算法。首先针对双针仪表设备图像,进行设备模板化处理,并在模板库中建立仪表的min刻度和max刻度的位置信息。对于机器人实时采集的仪表图像,先要在后台服务中调取相应采集位置设备的模板图,利用尺度不变特征变换(SIFT)算法,在输入图像中匹配提取仪表表盘区域子图像。而后除去上方指针在表盘中的阴影降低指针误识别率,再对表盘子图像进行二值化、仪表指针骨干化处理,利用快速霍夫变换(Fast Hough Transform)检测两条指针直线去除噪音干扰,定位指针精确位置和指向角度,完成指针读数。此算法经过国内某500 kV智能变电站巡检机器人实地测试,各种仪表综合识别率超过95%,对仪表的读数具有高精度高鲁棒性,完全满足该智能变电站推进无人值守的仪表设备读数自动检测识别的要求。 相似文献
95.
96.
p值逻辑函数最佳仿射逼近的谱特征 总被引:2,自引:0,他引:2
给出了p(正整数p≥2)值逻辑函数与p值仿射函数符合率的Chrestenson谱表示,并用两种Chrestenson谱分别确定了p值逻辑函数的最佳仿射逼近函数。 相似文献
97.
98.
根据透视仿射理论,研究在计算机上作截切平面的方法,探讨截平面在工程中的实际应用. 相似文献
99.
In this paper,a new method is presented for 3D motion estimation by image region correspondences using stereo cameras.Under the weak perspectivity assumption.we first employ the moment tensor theory (Cyganski and Orr^[11]) to compute the monocular affine transformations relating images taken by the same camera at different time instants and the binocular affine transformations relating images taken by different cameras at the same time instant.We then show that 3D motion can be recovered from these 2D transformations.A space-time fusion strategy is proposed to aim at robust results.No knowledge of point correspondences if requred in the above processes and the computations involved are linear.To find corresponding image regions,new affine invariants,which show stronger invariance,are derived in term of tensor contraction theory.Experiments on real motion images are conducted to verify the proposed method. 相似文献