排序方式: 共有86条查询结果,搜索用时 312 毫秒
1.
近年来,随着互联网的发展,出现了网上购物这种全新的购物方式。网上购物已经成为年轻人购物的主要方式。但网上的商品琳琅满目,如何挑选物美价廉的商品成为需要解决的问题,由此设计了一个基于Python爬虫的优惠券型导购系统。将淘宝、天猫、京东三大电商网站作为数据源,使用Python的requests、selenium等模块结合IP代理反反爬虫技术将商品信息与优惠券信息爬取下来,对信息进行数据清洗并存入mongo DB数据库中,由后台服务器程序整理数据,并在基于HTML5的安卓端APP展示出来供用户查看与选择。该系统简单高效,可以改善用户的购物体验,具有较高的实用价值。 相似文献
2.
介绍了用ZC-42CrMo材质,以精密铸造的方法,代替通常使用的50Mn材质、锻造方法生产的120立爪装载机履带总成的履带节的研制和应用情况。结果表明,该方法不仅满足履带节力学性能及使用性能要求,而且生产成本显著降低。 相似文献
3.
Ajax技术给传统的爬虫带来了巨大的挑战,为了能够提取出在Ajax程序中隐藏的WEB资源,需要解决两大关键问题:JavaScript脚本解析和每一次脚本事件触发后的页面状态信息的保存。提出一种适合Ajax的爬虫模型,在模型中设计了一个嵌入的脚本解析引擎和使用了有向状态图,有效地解决了上述的两个关键问题。实验结果显示该爬虫模型能够有效地提取出Ajax程序中的隐藏资源。 相似文献
4.
基于爬虫的XSS漏洞检测工具设计与实现 总被引:4,自引:2,他引:2
通过对XSS漏洞的研究,剖析其产生、利用的方式,在此基础上针对XSS漏洞的检测机制进行进一步的分析和完善。结合网络爬虫的技术,研究设计并实现了一款XSS漏洞的检测工具(XSS-Scan),并与当前比较流行的一些软件做了分析比较,证明利用该工具可以对Web网站进行安全审计,检测其是否存在XSS漏洞。 相似文献
5.
6.
Semantic-based web service discovery and chaining for building an Arctic spatial data infrastructure 总被引:2,自引:0,他引:2
W. Li C. Yang D. NebertR. Raskin P. HouserH. Wu Z. Li 《Computers & Geosciences》2011,37(11):1752-1762
Increasing interests in a global environment and climate change have led to studies focused on the changes in the multinational Arctic region. To facilitate Arctic research, a spatial data infrastructure (SDI), where Arctic data, information, and services are shared and integrated in a seamless manner, particularly in light of today's climate change scenarios, is urgently needed. In this paper, we utilize the knowledge-based approach and the spatial web portal technology to prototype an Arctic SDI (ASDI) by proposing (1) a hybrid approach for efficient service discovery from distributed web catalogs and the dynamic Internet; (2) a domain knowledge base to model the latent semantic relationships among scientific data and services; and (3) an intelligent logic reasoning mechanism for (semi-)automatic service selection and chaining. A study of the influence of solid water dynamics to the bio-habitat of the Arctic region is used as an example to demonstrate the prototype. 相似文献
7.
研究了分布式体系结构下的并行Crawler采集模型,分析了各组件的功能及各Cmwler在并行搜索时,为保证系统的负载均衡而应遵循的基本规则,并提出了一种基于散列(hash)的URL的调度算法。 相似文献
8.
9.
10.