京东商城网站首页,网页设计代码如何写实训报告过程,东莞网站建设市场,网站建设单页面推广模板第一个问题#xff1a;JS加密如何突破
(1) 熟练掌握Chrome的开发者工具的各个功能#xff0c;Elements#xff0c; Network#xff0c;Source
(2) 认真观察#xff0c;善于思考。Network查看加载流程#xff0c;找可疑的xhr请求#xff0c;设置xhr断点#xff0c;通过C…第一个问题JS加密如何突破
(1) 熟练掌握Chrome的开发者工具的各个功能Elements NetworkSource
(2) 认真观察善于思考。Network查看加载流程找可疑的xhr请求设置xhr断点通过Call Stack 回溯js执行过程边回溯边查看上下文代码。能读懂js知道js的相关知识比如js里面的window变量。
(3) 以上是通过debug js找到js加密解密的代码然后通过Python重新实现这个过程很长可能耗费你几天的时间一旦网站改变一下js算法你的Python实现就不能用了。
(4) 用Selenium可简单突破并且网站随便该都无所谓。唯一遗憾的是Selenium的运行效率较差。但是作为一个能用js加密来保护数据的网站单价的运行效率应该足以满足网站的访问频率限制。这时候更多的思考是如何增加资源IP、账号来提高抓取效率。
第二个问题、多线程、协程多进程的选择
1爬虫是IO密集型任务大部分时间花在网络访问上所以多进程不适合网络爬虫而多线程、异步IO协程更适合而异步IO是最适合的它相比多线程协程间的切换代价更小我们提倡使用异步IO而非多线程。异步IO的模块主要是aysncio, aiohttp, aiomysql 等。
2网页爬下来后从中提取想要的数据是CPU密集型的这时候可以用多进程并发提取。
3我们推荐的爬虫策略是爬虫只管爬把爬下来的html保存起来存到数据库。然后单独写提取数据的提取器单独运行提取器。好处是提取不影响爬取爬的效率更高并且提取程序可以随时修改有新的提取需求时不需要重新抓取。比如最初写爬虫时只想提取网页中的两项数据运行一段时间后发现另外3项数据也很有用如果保存了html只需改改提取器重新跑一遍就好了。
第三个问题、如果想要保留加粗或者图片原始位置只能通过挖掘规律再写正则表达式来针对性处理吗
网页数据提取主要两种方法正则表达式xpath。通过xpath可以获得某个html标签节点。比如一篇blog网页它的主体内容都在某个标签里面可能是某个div。用xpath得到这个div转换为html就是包含了格式及其图片的部分你保存这段html代码而非纯文本就好了。
第四个问题、爬虫的增量爬取、断点续爬、去重等
1通过网址池的概念去管理所有的URL
2增量爬取就是不重复下载已经下载过的让网址池记住那些已经下载过的URL
3断点续爬就是上次还没有爬取的URL这次接着爬还是让网址池记住那些还没被爬取的URL
4爬虫的去重让网址池记录URL的状态以避免重复爬取。
第五个问题、爬虫的部署问题在公司是不是分布式爬虫系统比较多会涉及部署问题
爬虫的部署不一定是分布式的。大规模的爬虫突破了目标网站限制的爬虫才会涉及到分布式分布式的好处是抓取速度提高但是管理会比较复杂。
第六个问题、网页的自动解析这个话题就包含很多子任务了 怎么自动抽取文章的内容如何处理各种各样的时间格式怎样处理翻页
1文章内容的提取基本的是每种网页建立一个提取模板正则表达式好处是提取精准坏处是工作量大一旦稍微改版就失败。通过算法建立单一提取程序基本上都可以提取但是可能会有写杂质比如文末的相关阅读。好处是一劳永逸不受改版限制。
2时间的提取除了正则表达式之外似乎没有特别有效的方法。
3翻页的话如果只是抓取把该页的url提取出来继续抓如何在提取内容时要把多页内容合并成一个网页那就要特别处理。
第七个问题、爬新闻类的网站时如何做好同一新闻各网站相互转载爬取时文本去重
比较著名的算法是Google的simhash但具体实践中比较复杂。网传百度的做法是把文章的最长一句话或多句做hash这个hash值就是文章的唯一性代表指纹这个方法准确率很高但是召回率比较低一旦这最长的几句话改一个字就不能召回我改进了该方法对n句最长的话分别做hash一个文章由n个指纹如图人的是个指头指纹都不一样确定唯一性。准确率和召回率都还不错。
第八个问题、异步爬虫的设计
1一个好的URL管理策略见猿人学上的网址池相关文章
网址池是一个“生产者-消费者”模型爬虫从中取出url去下载下载的html中提取新的url放入池中告诉url池刚才拿出的url是否下载成功再从池中取出url进行下载。。。url池是核心部件它记录url的不同状态
a下载成功
b下载失败n次
c正在下载
每次往池子添加url时都要检查url在池中的状态避免重复下载。
2一个好的异步协程管理策略见猿人学网站上的大规模异步新闻爬虫的文章。
每次从urlpool中提取n个url生成n个异步下载的协程通过一个变量记录协程的个数也就是正在下载网页的个数。
大规模异步新闻爬虫实现功能强大、简洁易用的网址池(URL Pool)
大规模异步新闻爬虫 用asyncio实现异步爬虫
异步URL管理 异步实现 见这个两个URL
有用的话记得点个赞同哈嘿嘿