首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 23 毫秒
1.
Web系统最开始是作为网页和网站载体,网页的设计从模仿纸质媒体开始,而不是从模仿桌面应用程序开始,所以在桌面应用迁移到Web端时,很多设计也是采用了网页设计的风格.其优点是采用现有技术,开发周期短,缺点是交互性和美观性差.由于JavaScript尤其是jQuery在Web前端的广泛应用,jQuery的扩展库例如EasyUI模仿了传统桌面应用的界面设计和良好的交互性,得到广泛应用.通过jQuery EasyUI实现了项目管理系统的Web前端设计,具有较好的交互性和用户友好性.  相似文献   

2.
目前Web服务以表格结构为主的网页技术无法提供Web内容自适应,本论文提出了以层为主要结构设计网页,利用该结构的可移动定位参数,并通过中间件技术设计实现了一个基于层次结构的Web服务模型.通过对该模型的仿真实验证明,该模型能够有效地改善Web服务服务质量和提供内容自适应.  相似文献   

3.
根据对Web应用层网页攻击的分析,针对网页数据必须加以验证的特点,进行Web用层网页安全防护系统的具体设计,包括总体框架、模块设计、系统工作流程等。设计中,以XMLSchema作为网页安全策略描述语言,利用MD5算法计算信息验证码来保护数据的完整性。  相似文献   

4.
基于HTTP超文本传输协议,通过浏览器网页集客房信息监测、灯光控制、空调控制、门禁控制、供电管理功能于一体.基于以太网单片机CH563设计的客房控制器RCU,通过以太网连接到Web服务器,可以控制客房内设备的开关与运转,同时收集客房信息上传服务器;基于CH563设计的Web Server,可以代替传统的电脑服务器,体积小、成本低;酒店管理员可以通过浏览器访问CH563,在网页上获取客房信息、下发控制命令,实现智能集中管理.  相似文献   

5.
网页分块方法使得Web信息抽取的单位由页面缩小为块.文中研究了网页分块的主要方法与基于学习的分块重要性模型,对Xpath的Web抽取方法进行分析.结合两者的优势提出一种基于分块重要性模型与Xpath结合的Web信息抽取方法,探讨了其设计过程,并给出形式化描述与实验结果,结果表明该方法适合于抽取多记录型的网页.  相似文献   

6.
大量的网页资源和网页的动态特性突出了基于网页信息搜索系统的不断支持和升级的要求.搜索引擎系统中的爬行虫就是为搜集网页中的信息而设计的.爬行虫通过网页中的超链接方便了某个特殊网页快照的自动下载.讨论的根本是与爬行虫的内部架构发展相关.论文首先分析Web信息采集系统模型和爬行虫的搜索策略,给出一个适合中小型网站网页具体信息获取的爬行虫算法,并使用C++ Builder工具实现程序.本文也给出了一些与主题搜索相关的程序说明.  相似文献   

7.
一种基于半监督学习的多模态Web查询精化方法   总被引:1,自引:0,他引:1  
Web搜索系统往往通过与用户的交互来精化查询以提高搜索性能.除文字之外,网页中还存在着大量其它模态的信息,如图像、音频和视频等.以往对于查询精化的研究很少涉及对多模态信息的利用.文中提出了一种基于半监督学习的多模态Web查询精化方法M2S2QR,将Web查询精化转化为一个机器学习问题加以解决.首先,基于用户判断后的网页信息,分别为不同模态训练相应的学习器,然后利用未经用户判断的网页信息来提高学习器性能,最后将不同模态学习器结合起来使用.实验验证了文中方法的有效性.  相似文献   

8.
一、什么是互联网Web 2.0技术 互联网Web 2.0技术是相对于Web1.0技术而言的,是Web 1.0技术的提高和革新.Web 1.0技术是指网站制作发布网页,用户被动、单纯浏览网页的模式.Web 1.0技术是以网站提供集中信息给读者,满足广大用户共同需求为目的的,如现在常见的一些门户网站.  相似文献   

9.
郭训华  邵世煌 《计算机工程》2005,31(22):127-129,145
提出了一种实现基于Web的Simulink建模与仿真的方法。运用浏览器端技术,设计出用于Simulink建模和仿真的图形用户界面,以网页形式提供给因特网用户。该文对整个系统进行了设计,通过一个在控制系统的应用实例,说明该方法能够较好地实现基于Web的Simulink建模与仿真。  相似文献   

10.
为了解决网页信息的自动抽取,该文提出了一种基于视觉特征和领域本体的Web信息抽取算法.该算法以基于领域本体的信息抽取为基础,根据网页的视觉特征来准确划定信息抽取区域,然后结合DOM树技术和抽取路径的启发式学习,获得Web贞面中信息项的抽取路径.通过信息项的抽取路径自动生成信息项的领域本体,通过信息项的领域本体解析出信息项的抽取规则.使用本算法来进行Web信息的抽取,具有查全率与查准率高、时间复杂度低、用户负担较轻和自动化程度高的特点.  相似文献   

11.
为及时阻止网页中篡改信息的传播且使真实信息得到有效利用,提出一种在浏览器端标示篡改的分块网页脆弱水印算法.算法首先按浏览器显示字符所在标签将网页分块,然后将基于块内容生成的水印信息置乱加密后嵌入在网页的颜色属性中.认证时,通过比较网页块提取水印和重构水印的不同比特个数与阈值的关系判定网页块的有效性.对判定为篡改的网页块,通过修改其浏览器端显示字符和尾标签的属性使其在浏览器端屏蔽并标示篡改,阻止伪造信息传播的同时不影响其他信息的继续使用.实验结果表明,算法在水印嵌入方法上有较好的隐蔽性,文件增量较小.当阈值为2时,算法能够较准确地检测出篡改并在浏览器端合理准确地定位标示网页块,且有效提高了算法的时间效率.  相似文献   

12.
本系统设计目的是采用单片机控制技术,以STM32单片机为核心,配合TFT触摸屏和Web服务器,通过单片机周边传感器来实现婴幼儿日常的监护.设计实现了婴儿端信息的采集,通过网络将信息发送到WEB服务器上提供给医护人员进行参考,同时通过无线终端的人机交互界面对婴儿端实时的检测和相应的控制.  相似文献   

13.
AJAX是Web应用的一种新方法,使用AJAX可以强化网站的功能,提高用户体验。本文介绍了ASP.NET AJAX的功能结构并以显示服务器的进程信息的Web页面设计为例,展示了ASP.NET AJAX在Web网页设计中的应用。  相似文献   

14.
为了解决旅游市场导游信息不足、个性化服务不到位等问题,提出了一种基于LBS和Web服务的社会化电子导游系统.系统采用坐标拾取和转换、Android TTS语音转换、地理围栏等技术,实现了网页端通过系统界面地图操作自动选取景点坐标,然后录入景点讲解文本形成导游包,移动端加载导游包后根据地理位置自动触发导游信息的文本语音转换和播报等功能.  相似文献   

15.
从Web中快速、准确地检索出所需信息的迫切需求催生了专业搜索引擎技术.在专业搜索引擎中,网络爬虫(Crawler)负责在Web上搜集特定专业领域的信息,是专业搜索引擎的重要核心部件.该文对中文专业网页的爬取问题进行了研究,基于KL距离验证了网页内容与链接前后文在分布上的差异,在此基础上提出了以链接锚文本及其前后文为特征、Naive Bayes分类器制导的中文专业网页爬取算法,设计了自动获取带链接类标的训练数据的算法.以金融专业网页的爬取为例,分别对所提出的算法进行了离线和在线测试,结果表明,Naive Bayes分类器制导的网络爬虫可以达到近90%的专业网页收割率.  相似文献   

16.
粒度计算与信息检索模型   总被引:1,自引:0,他引:1  
梁久祯  贾泂 《计算机科学》2004,31(Z2):172-173
1引言 Internet发展到今天,Web数据技术已深入到各个领域,Web网页的数量已达到数十亿的量,并且每年以数亿的数量增长.如何从大量的杂乱无章的、强干扰的数据(海量数据)中检索出潜在的、有利用价值的信息和知识,给人类的智能信息处理能力提出了前所未有的挑战.目前用粒度计算理论与方法,为Web网页信息的表示提供数学模型,为Web信息的检索提供全新的理论框架与有效方法是一个全新的方法.  相似文献   

17.
文章提出了一种基于DOM(文档结构模型)和网页模板的Web信息提取方法.参照DOM的定义,通过构造HTML解析树来描述网页结构.在抽取网页之前,先通过归纳网页模板来过滤网页中的噪音信息.然后,使用基于相对路径的抽取规则来进行信息抽取.最后,本文给出了归纳网页模板和抽取网页信息的实验结果.实验结果表明本文提出的归纳网页模板方法和信息抽取方法是正确的和高效的.  相似文献   

18.
基于网页信息检索的地理信息变化检测方法   总被引:1,自引:0,他引:1  
曾文华  黄桦 《计算机应用》2010,30(4):1132-1134
针对地理信息变化频繁,难以及时发现的问题,提出了一种基于网页信息检索的地理信息变化检测方法,通过设计搜索条件在互联网上收集符合条件的网页,设计评价方法评价搜索结果的可信度,并对最终搜索结果进行统计和空间分析,实现基于网页信息检索技术的地理信息变化检测。以杭州地区为例,开发了基于Web的杭州地区地物变化检测系统,验证了该方法的可行性及有效性,为区域的地物变化检测提供了新方法。  相似文献   

19.
一种Deep Web爬虫的设计与实现   总被引:1,自引:0,他引:1  
随着World Wide Web的快速发展,Deep Web中蕴含了越来越多的可供访问的信息.这些信息可以通过网页上的表单来获取,它们是由Deep Web后台数据库动态产生的.传统的Web爬虫仅能通过跟踪超链接检索普通的Surface Web页面,由于没有直接指向Deep Web页面的静态链接,所以当前大多数搜索引擎不能发现和索引这些页面.然而,与Surface Web相比,Deep Web中所包含的信息的质量更高,对我们更有价值.本文提出了一种利用HtmlUnit框架设计Deep Web爬虫的方法.它能够集成多个领域站点,通过分析查询表单从后台数据库中检索相关信息.实验结果表明此方法是有效的.  相似文献   

20.
Deep Web信息通过在网页搜索接口提交查询词获得。通用搜索引擎使用超链接爬取网页,无法索引deep Web数据。为解决此问题,介绍一种基于最优查询的deep Web爬虫,通过从聚类网页中生成最优查询,自动提交查询,最后索引查询结果。实验表明系统能自动、高效地完成多领域deep Web数据爬取。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号