首页 | 官方网站   微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   68158篇
  免费   13305篇
  国内免费   9374篇
工业技术   90837篇
  2024年   414篇
  2023年   1274篇
  2022年   2498篇
  2021年   2659篇
  2020年   2951篇
  2019年   2438篇
  2018年   2439篇
  2017年   2816篇
  2016年   3257篇
  2015年   3889篇
  2014年   4985篇
  2013年   4874篇
  2012年   6006篇
  2011年   6200篇
  2010年   5061篇
  2009年   5202篇
  2008年   5450篇
  2007年   5885篇
  2006年   4609篇
  2005年   3792篇
  2004年   3068篇
  2003年   2406篇
  2002年   1786篇
  2001年   1398篇
  2000年   1194篇
  1999年   917篇
  1998年   752篇
  1997年   581篇
  1996年   453篇
  1995年   303篇
  1994年   268篇
  1993年   200篇
  1992年   193篇
  1991年   90篇
  1990年   126篇
  1989年   87篇
  1988年   60篇
  1987年   22篇
  1986年   31篇
  1985年   33篇
  1984年   22篇
  1983年   22篇
  1982年   25篇
  1981年   13篇
  1980年   21篇
  1979年   9篇
  1978年   10篇
  1977年   8篇
  1975年   9篇
  1959年   9篇
排序方式: 共有10000条查询结果,搜索用时 46 毫秒
121.
基于遗传算法的优化排样   总被引:4,自引:0,他引:4  
介绍了遗传算法以及二维不规则图形的计算机优化排样,研究了二维不规则图形排样中如何建立遗传算法的目标函数,如何实现交叉、变异运算等优化过程,找到了运用遗传算法实现二维不规则图形优化排样的方法。通过计算机编制了运用遗传算法进行二维不规则图形优化排样的运算程序,并对部分样形进行了优化排样,结果比较满意。  相似文献   
122.
基于DTW算法的语音识别系统实现   总被引:10,自引:0,他引:10  
动态时间归整(DTW)算法的实现简单有效,在孤立词语音识别系统中得到了广泛的应用.介绍了将DTW算法移植到TMS320VC5402上实现孤立词语音识别的原理、系统硬件组成和软件设计.研究结果表明,系统能满足实时性能要求,识别效果良好.  相似文献   
123.
CDMA网络的基站分布规划属于多目标组合优化问题,为此在遗传算法的基础上提出了一种基于成本控制的CDMA网络基站分布规划算法。该算法综合考虑了在CDAM网络规划实际工程中的多种规划目标和要求,能够找到符合CDMA网络建设需要的基站分布方案。  相似文献   
124.
基于算术傅里叶变换的小波变换快速算法   总被引:3,自引:0,他引:3  
利用算术傅里叶变换(AFT)计算离散傅里叶变换(DFT)可使其乘法计算量仅为D(N)。文章根据这一特点,结合Mallat算法原理及离散傅里叶算法结构特征,提出了一种离散小波变换的快速算法,给出了数学推导过程,并对实验结果进行了分析。  相似文献   
125.
文章在对软输出维特比算法(SOVA)进行推导的基础上,分析了软信息的提取过程。同时从硬件实现的角度考虑,提出了一种基于滑动窗1:3结构的SOVA算法实现方案,该算法大大降低了算法实现复杂度和译码延迟,同时通过调整滑窗参数,可以取得与非滑窗SOVA算法几乎相同的性能。  相似文献   
126.
动态多目标决策问题的灰色分析方法   总被引:2,自引:0,他引:2  
将用于固定时间截面下静态多目标决策的灰色关联理论推广到动态情形,引入局部理想最优效果和整体理想最优效果的概念,提出一种新型的动态多目标决策问题的灰色关联模型,并通过算例说明该方法的合理可行性。  相似文献   
127.
We are concerned with the detection of edges—the location and amplitudes of jump discontinuities of piecewise smooth data realized in terms of its discrete grid values. We discuss the interplay between two approaches. One approach, realized in the physical space, is based on local differences and is typically limited to low-order of accuracy. An alternative approach developed in our previous work [Gelb and Tadmor, Appl. Comp. Harmonic Anal., 7, 101–135 (1999)] and realized in the dual Fourier space, is based on concentration factors; with a proper choice of concentration factors one can achieve higher-orders—in fact in [Gelb and Tadmor, SIAM J. Numer. Anal., 38, 1389–1408 (2001)] we constructed exponentially accurate edge detectors. Since the stencil of these highly-accurate detectors is global, an outside threshold parameter is required to avoid oscillations in the immediate neighborhood of discontinuities. In this paper we introduce an adaptive edge detection procedure based on a cross-breading between the local and global detectors. This is achieved by using the minmod limiter to suppress spurious oscillations near discontinuities while retaining high-order accuracy away from the jumps. The resulting method provides a family of robust, parameter-free edge-detectors for piecewise smooth data. We conclude with a series of one- and two-dimensional simulations.To David Gottlieb, on his 60th birthday, with friendship and appreciation.  相似文献   
128.
A recently proposed argument to explain the improved performance of the eight-point algorithm that results from using normalized data (Chojnacki, W., et al. in IEEE Trans. Pattern Anal. Mach. Intell. 25(9):1172–1177, 2003) relies upon adoption of a certain model for statistical data distribution. Under this model, the cost function that underlies the algorithm operating on the normalized data is statistically more advantageous than the cost function that underpins the algorithm using unnormalized data. Here we extend this explanation by introducing a more refined, structured model for data distribution. Under the extended model, the normalized eight-point algorithm turns out to be approximately consistent in a statistical sense. The proposed extension provides a link between the existing statistical rationalization of the normalized eight-point algorithm and the approach of Mühlich and Mester for enhancing total least squares estimation methods via equilibration. The paper forms part of a wider effort to rationalize and interrelate foundational methods in vision parameter estimation.  相似文献   
129.
Image segmentation using Markov random fields involves parameter estimation in hidden Markov models for which the EM algorithm is widely used. In practice, difficulties arise due to the dependence structure in the models and approximations are required. Using ideas from the mean field approximation principle, we propose a class of EM-like algorithms in which the computation reduces to dealing with systems of independent variables. Within this class, the simulated field algorithm is a new stochastic algorithm which appears to be the most promising for its good performance and speed, on synthetic and real image experiments.  相似文献   
130.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号