排序方式: 共有61条查询结果,搜索用时 0 毫秒
1.
2.
传统基于业务管理的离散系统建设,已无法满足区域医疗卫生信息共享和业务协同的需求。区域卫生信息化正向着整合性、遍在性、扩展性方向发展,既满足卫生行业发展和管理的需求又能整合现有的系统保护之前的投入,就需要顶层规划的架构能具备高兼容性和高可扩展性,SOA体系架构将是一个很好的应用。文中结合基于SOA居民健康档案管理系统(EHR)的实际应用,给出了利用Web Service实现SOA的有效方法,平台以服务居民为中心,同时,兼顾卫生管理和辅助决策研究的数据挖掘利用,将是行业整合平台的发展方向。 相似文献
3.
随着移动互联网的迅速发展和智能手机的普及,基于位置感知的订阅发布系统在工业界和学术界引起了广泛重视。现有系统主要处理海量空间数据下订阅与事件的查询匹配问题,其匹配模型主要是基于空间关键字之间的相似性,鲜有研究考虑语义相关性。为了探索并实现订阅发布系统在语义上的查询与匹配,提出了一种基于主题模型的位置感知订阅发布系统。 首先, 该系统利用主题模型对订阅发布系统中的关键字进行主题映射。然后,设计了一种两步分区索引结构RPTM-trees,并使用该索引结构为订阅的主题集合和空间信息建立索引。RPTM-trees根据主题集合的主题个数及关键主题对订阅进行两步分区索引,使其对订阅的分区能力更强,从而显著提升查询匹配的效率。最后,在高流速的事件流、千万级订阅数据集上进行了实验,实验结果表明所提方案是稳定和高效的。 相似文献
4.
基于掘进机随掘震源的巷道侧前方断层成像技术 总被引:3,自引:0,他引:3
基于掘进机随掘震源的地震超前探测,以掘进机切割煤壁和岩石时产生的地震波作为震源,通过在巷道内长时间连续采集地震波并从中寻找反射波实现巷道超前探测。为了使用连续的随掘地震数据实现巷道前方的地质异常体成像,分析了随掘反射波成像的原理,将数据处理和成像的过程分成了5个主要步骤,首先将随掘数据划分为多个一定长度的时间片段并对每个时间片段进行分析,从中挑选出掘进机正常工作时间较长的片段,通过与参考巷道互相关获得脉冲化记录,再依据每个脉冲化记录中直达槽波的信噪比筛选出合格的脉冲化记录,最后,采用基于射线的绕射偏移法对巷道前方和侧帮区域进行成像。并在阳煤榆树坡矿1215工作面回风巷内开展了随掘探测试验,由布置在煤壁内的检波器采集多日的随掘地震数据,对数据进行了处理和成像。结果表明:将掘进机随掘震源地震数据脉冲化后采用绕射偏移法可以实现掘进面侧前方断层的成像;随掘地震数据中包含大量无效数据,评价数据质量并筛选数据是提高成像质量的重要步骤;直接对掘进工作面前方成像缺乏理论依据,由成像结果推断侧前方断层与巷道延伸线的交点可实现巷道正前方断层位置的预测。 相似文献
5.
Deep Web网站采用Ajax技术后使得获取其数据信息更加困难。查询接口处理是获取Deep Web数据的关键步骤,针对采用Ajax技术的Deep Web查询接口,建立Ajax分析处理模型,解决传统爬虫无法完成表单提交的困难,从而获取到更多的Deep Web数据。实验结果证实,该方法是有效的。 相似文献
6.
7.
在Deep Web数据集成系统中进行查询松弛时,面对众多异构数据源的属性,如何来判断松弛的先后顺序目前没有很好的方法.根据表单特征来判定属性的重要程度,提出一种针对Deep Web环境的属性松弛顺序判定方法.同时在结果的排序过程中考虑影响松弛结果与查询条件相似性的主要因素,提出了一种更为高效的排序方法.实验结果表明了该方法的有效性. 相似文献
8.
Deep Web查询接口的自动判定 总被引:5,自引:1,他引:5
传统搜索引擎仅可以索引浅层Web页面.然而在网络深处隐含着大量、高质量的信息,传统搜索引擎由于技术原因不能索引这些被称之为Deep Web的页面。由于查询接口是Deep Web的唯一入口,因此要获取Deep Web信息就需判定哪些网页表单是Deep Web查询接口。文中介绍了一种利用朴素贝叶斯分类算法自动判定网页表单是否为Deep Web查询接口的方法,并实验验证了该方法的有效性。 相似文献
9.
一种Deep Web数据源质量评估模型 总被引:3,自引:1,他引:2
分析了影响Deep Web数据源质量评估的若干因素,提出了一种Deep Web数据源质量评估模型.该模型从浏览器、Web数据库、Web服务器和用户四个方面对数据源进行质量评估.通过在真实的Deep Web数据源上进行实验验证,说明该方法是有效和可行的. 相似文献