首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 234 毫秒
1.
在数字图书馆建设过程中,为有效利用早期直接存储于HTML表格中的图书资料信息,提出了一种将HTML表格转换为XML文档的方法。该方法利用HTML表格的格式化信息及其蕴涵的结构信息,对HTML表格的语义层次进行理解,然后将HTML表格数据转储于关系数据库中,最后利用关系数据库对XML文档的支持将数据库文件转换为XML文档。  相似文献   

2.
Java XML与面向Web的智能数据抽取   总被引:4,自引:1,他引:4  
采用标准Web技术——HTML,XML和Java,开发一种基于Web用Java把Web数据转换为XML的数据挖掘方法.该方法标识数据源并把它映射成XHTML,根据一定的相关关系查找数据内的引用点并进行智能数据抽取,将数据映射成XML.这种数据抽取方法比较简单,通过选择可靠的数据源以及在这些数据源中选取与内容相关但与格式无关的锚点,可以较为方便地建立一个强壮的数据抽取系统.  相似文献   

3.
"元数据模型"在数据提取中的实现   总被引:11,自引:1,他引:10  
大量分散的形式及不同格式的数据给现代数据处理带来了越来越大的困难.为统一数据形式以利于数据操作和处理,讨论了将形式多样的数据格式转换成统一的XML(extensible Markup Language)格式的问题.在计算机网络中,应用"元数据模型"技术,对数据源中不同格式文件数据,按照预先定义的XML模板,以格式说明文件结构统一描述,并提取数据或作进一步的处理,最后转换为XML格式输出.设计了具体的实现策略以及实现流程:实现了从TXT文件格式数据中提取数据转换成XML格式的代码,将TXT文件数据提取成XML格式的数据;完成了数据说明文件格式的设计,数据路径选择工具的开发,语言分析工具的设计开发等工作.结果表明:能满足同类产品的按行(line)为单位的源数据结构形式处理,还具有同类产品不具备的非行(字符串和关键字)提取处理功能.  相似文献   

4.
含有位置坐标树的Web页面分析和内容提取框架   总被引:6,自引:0,他引:6  
随着Internet的发展,Web上信息呈爆炸式增长趋势,呈现方式也愈发多种多样,这就给信息检索、信息提取等计算机处理带来了巨大困难.针对HTML的半结构化特征和DOM缺乏位置信息的不足,该文提出了一种新型的Web页面分析和内容提取框架,该框架既包括一种新型的含有位置信息的坐标树模型,还包括能反映空间关系的图模型,将HTML文档转换为坐标树,并结合位置特征和空间关系对网页进行分析和提取内容.对来自120个网站的5 000个网页进行测试后的结果表明该方法可达到93.78%的准确率.  相似文献   

5.
谭锋 《科技资讯》2011,(7):5-5,7
针对在Web信息抽取系统开发中遇到的关键性技术问题,如Web页的HTML文档下载,HTML到XML格式转换,XML文档清理等,分析和探讨了基于.NET技术的编程实现方法.  相似文献   

6.
基于DOM树及行文本统计去噪的网页文本抽取技术   总被引:1,自引:0,他引:1  
首先对网页源码文本统一编码转为UTF格式,然后把HTML网页文档转换为XML文档并解析为一棵DOM树。依据XML语言特点及噪声特征规则先对DOM树的噪声节点进行过滤删除,然后依据中文标点符号统计方法提取网页正文内容,并在此基础上利用行文本统计方法去除提取出的正文中存在的噪声信息,最后得到网页正文文本。对来自结构完全不同的主流与非主流的中英文新闻网站上的2 000篇网页进行实验,结果表明本文提出的方法具有较高的抽取准确率,并具有很好的通用性和实现简单的特点,适用于针对互联网中不同网站新闻文本信息的自动采集。  相似文献   

7.
HTML数据内容的抽取与集成   总被引:11,自引:0,他引:11  
在XML基础上,利用HTML Tidy可实现轻量级的Web数据挖掘和转换。转换过程主要解决的是HTML文档及其集合要表达的模式信息的分离。转换步骤是利用HTML Tidy提供的标准类库,净化HTML文档,借助DOM生成树对HTML元素结构做进一步分析,最后通过XSL、XPATH等自动提取转换。  相似文献   

8.
介绍了ISPD98电路网表格式和图文件存储格式,然后针对ISPD98电路网表给出了转换到图的算法.该算法解决正确读取ISPD98电路网表文件数据,将其转换为图并存储为指定的图文件存储格式.该算法在Windows啪平台下用C++进行了实现,并给出了ISPD98电路网表转换后图的特性.  相似文献   

9.
为了自动将数据从HTML网页中抽取出来,采取树自动机推断方式进行数据抽取.核心思想是将样本网页转化为二叉树并构建出能够接受这些网页二叉树的树自动机,利用所得到的树自动机对待抽取网页的接受和拒绝状态进行数据抽取.该方法充分利用了HTML文档内在的树状结构,设计了简单方便的样本网页标注形式.实验表明,该方法的抽取性能在查全率和F值方面优于其它的一些数据抽取方法.  相似文献   

10.
提出了一种用于情感语音合成的基频转换方法.该方法使用定量目标逼近(q TA)特征作为语音音节层的基频描述,并用高斯双向联想贮存器(GBAM)实现中性合成语音音节层q TA参数向目标情感语音音节层q TA参数的转换.在模型训练阶段,首先基于中性语料库和统计参数语音合成方法构建中性语音合成系统;然后利用少量情感录音数据,将从情感语音文本对应的中性合成语音中提取的q TA参数作为源数据,将情感录音中提取的q TA参数作为目标数据,进行GBAM转换模型的训练.在情感语音合成阶段,利用训练得到的GABM模型,实现中性合成语音基频特征向目标情感的转换.实验结果表明,该方法在目标情感数据较少的情况下可以取得比最大似然线性回归(MLLR)模型自适应方法更好的情感表现力.  相似文献   

11.
随着网络技术的迅速发展,许多数据信息要求输出为HTML格式文件在网上进行浏览,以解决数据共享的问题。本文介绍了利用转换类库和FrontPage2000与VFP编程,把数据库内容转换为HTML格式文件的两种方法。  相似文献   

12.
基于XML的多数据库系统集成数据模型   总被引:2,自引:0,他引:2  
随着网络信息的大量积累,如何充分利用网络资源已成为一个亟待解决的问题,将数据库技术应用到Web数据中是一种较好的解决办法,而其中则牵涉到Web数据的结构抽取以及采用什么形式描述这种结构。基于上述情况,提出了如何将一个典型的半结构化数据(HTML网页)经过模式抽取并转换为XIDM描述形式的方法,从而实现了自行研制的多数据库系统Panorama与文件系统的集成。  相似文献   

13.
由于Deep Web查询接口的自动发现是获取Deep Web信息的基础,提出了基于搜索引擎的表单发现方法和基于语义相似度的查询表单判定方法.该文首先定义了查询表单的特征的表示方法,然后自动提取样本查询接口的特征并将其中的文字特征进行组合提交给搜索引擎以实现查询表单的搜索,最后基于语义相似度和字面相似度的方法判定搜索表单和样本表单之间的相似度,并由此判定是否是WDB的查询接口.实验证明该文方法具有良好的可行性和实用性,为深入研究Deep Web提供了良好的条件.  相似文献   

14.
为高效地处理大规模矢量空间数据,基于Hadoop的并行计算框架MapRedue,实现了一种分布式的矢量空间数据选择查询处理方法.首先,分析OGC简单要素标准与Hadoop的Key/Value数据模型,设计了可存储于Hadoop HDFS的矢量文件格式;其次,根据两阶段的过滤-精炼策略,对Map输入数据分片、选择查询处理过程及Reduce结果合并等关键步骤进行了详细阐述;最后,基于上述技术,利用Hadoop集群环境对所提出的方法进行验证,该方法具有较好的可行性和较高的效率.  相似文献   

15.
详细阐述了一套高校授课计划DTD的完整开发过程,该DTD给出了高校授课计划的结构框架和语义框架,讨论了受DTD约束的XML文档的呈现方法.给出了一种基于XML的教学信息异构数据库集成方法及数据处理模型,并提出了一种基于CORBA和XML的教学信息异构数据库间数据交换的机制.  相似文献   

16.
为解决快速成形中原有层面数据文件格式(如CLI和SLC)的存储信息不完备、存取效率不高且不具备扩展性的缺点,提出了一种新型的快速成形层面数据文件格式———ZIF格式.它基于树状信息块结构,能存储快速成形加工过程中所需要的全部层面数据与工艺参数信息,并且具备实时随机检索文件中任意一层的层面数据的能力,该格式能内嵌STL文件信息来满足加工过程中通过浏览实体模型优化工艺参数的需要,并通过自定义参数的方式来传输各种特定工艺专有的加工参数,此外,该格式能不断扩展新的信息块以支持未来工艺的新要求.同时叙述了ZIF文件的格式规范、存取方法及其应用.  相似文献   

17.
针对Web同一对象内部信息组件之间的空间距离小于不同对象之间信息组件之间的距离这一显示特征.提出一种新的Web对象抽取方法.通过分析给定页面中不同实体间的空间位置关系来判断哪些信息成分属于同一对象,与Web文档的表示无关.通过Web页的文档对象模型(DOM)获得不同信息成分之间的位置关系,进而判断这些信息组件是否属于同一对象.实验结果表明,该方法对于多个领域中不同结构的Web文档具有很好的适应性.对于设计结构规则,含有多个数据对象的页面,抽取结果的准确率可以达到100%.  相似文献   

18.
一种新的Web链接提取模型   总被引:4,自引:0,他引:4  
以搜索引擎链接提取模块所要求的容错性、正确性、全面性、高效性和可扩展性为目标,提出了一种新的链接提取模型的设计思路。该模型将链接提取过程划分为信息提取、信息加工、信息分析和信息储存。信息的获取是通过HTM L(hypertex t m arkup language)文法分析方法从文档中得到初始统一资源地址(un iform resourceiden tifier,UR I)数据;信息加工阶段通过运用UR I解析算法对初始数据进行精练;然后在信息分析过程中进一步加以筛选和过滤;最后将结果存储在一个灵活的数据结构中。通过对比测试证实这种新的链接提取模式比传统方法在各项指标上均具有明显优势。  相似文献   

19.
CSS将网页上的内容和格式分开控制,能够简化网页的格式代码.但目前网页布局多用表格、层等,CSS元素多是嵌入到HTML标记中使用,不能自如地改变网页的版面布局,也不能充分发挥CSS在版面布局中的强大作用.WEB信息网页的制作日益成为大众化的技术,对于电子信息管理人员来说,掌握这门技术已经成为趋势.介绍通过使用HTML的DIV标记和CSS设计易于改版的信息网页的方法.  相似文献   

20.
介绍了基于索引路径的数据抽取算法的不足,从代码角度和用户需求角度2个方面进行考虑,提出了一种进改良措施,有效地提升了数据抽取的准确率,从而大大减少了数据冗余.由于补充了记录、有效数据等定义,使得抽取出的数据仍然保有其在网页中的结构关系,为之后的语义标注工作带来了极大的方便,为深度网页(Deep Web)数据集成奠定了良好的基础.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号