当前位置: 首页 > news >正文

微信 购物网站开发免费网站用官微建站

微信 购物网站开发,免费网站用官微建站,WordPress开启评论验证,建网站的好处#urllib的爬虫案例#xff0d;通过最原始的爬虫方式 爬虫之前如果抓包工具Fiddler证书安装失败#xff0c;采用以下方法 1、打开cmd 2、进入fillder的目录 如下#xff1a; 里面的路径改成你自己的安装路径 cd /d D:\Program Files (x86)\Fiddler2 然后再执行下…#urllib的爬虫案例通过最原始的爬虫方式 爬虫之前如果抓包工具Fiddler证书安装失败采用以下方法 1、打开cmd 2、进入fillder的目录 如下 里面的路径改成你自己的安装路径 cd /d D:\Program Files (x86)\Fiddler2 然后再执行下面命令 makecert.exe -r -ss my -n CNDO_NOT_TRUST_FiddlerRoot, ODO_NOT_TRUST, OUCreated by http://www.fiddler2.com -sky signature -eku 1.3.6.1.5.5.7.3.1 -h 1 -cy authority -a sha1 -m 120 -b  1.爬取百度贴吧数据 import urllib #用于进行中文编码 import urllib2 #用于进行爬虫核心处理#定义一个函数用于爬取对应的数据 def load_url(url,file_name):print(开始爬取%s的内容%file_name)#爬取程序my_headers{User-Agent: Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 Safari/537.36,}request urllib2.Request(url,headersmy_headers)content urllib2.urlopen(request).read()print(爬取%s的内容完成%file_name)return content#定义一个函数用于保存数据 def save_data(data,file_name):print(开始保存%s的内容%file_name)with open(file_name,w) as f:f.write(data)print(保存%s的内容完成%file_name)#定义函数进行爬虫的核心处理功能 def spider(url,kw,begin,end):for page in range(begin,end1):#计算需要的页码pn (page-1)*50#进行kw参数的编码kw urllib.urlencode({kw:kw})#拼接url地址full_url url kw pn str(pn)#定义一个保存文件的名称file_name 网页str(page) .html#开始爬取数据htmlload_url(full_url,file_name)#保存数据到文件save_data(html,file_name)#主程序运行入口 if __name__ __main__:#用户输入相关数据urlhttp://tieba.baidu.com/f?kw raw_input(请输入要爬取的贴吧名称)begin int(raw_input(请输入开始页码))end int(raw_input(请输入结束页码))#调用爬虫开始执行spider(url,kw,begin,end)2.爬取豆瓣电影数据 import urllib import urllib2url https://movie.douban.com/j/new_search_subjects?sortTrange0,10#要传递的post方式嗯对数据有可能会有多组数据 submit_data {start:20,tags:喜剧 } #编码 data urllib.urlencode(submit_data)#构造请求头创建请求对象 headers {Accept : application/json, text/plain, */*,User-Agent : Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.7 Safari/537.36,Accept-Language : zh-CN,zh;q0.8 }request urllib2.Request(url,data,headers)#发送请求获取服务器响应数据 response urllib2.urlopen(request)#获取爬取到的数据 content response.read()#保存数据 with open(movies.json,w) as f:f.write(content)
http://www.pierceye.com/news/570705/

相关文章:

  • 国外做袜靴的网站wordpress在后台文章自定义表单
  • 网站商城建设实训心得优质校建设网站
  • 皖icp网站建设专业建设存在问题及改进建议
  • 建设网银登录网站wordpress怎么删除目录下
  • 网站建设帖子微信附近人推广引流
  • 苏州建网站要多少钱龙岩推广公司
  • 网站二次开发做外贸网站策划
  • 珠海建网站公司wordpress 关闭访问
  • 建设跳转公积金网站网站建设太金手指六六二五
  • 怎样做办公用品销售网站网站开发与维护 专业
  • 大气的网站设计wordpress顶栏
  • 网站开发用到哪些技术中国建设集团官网
  • 淘宝客网站建设多少钱可以做微课ppt模板 网站有哪些内容
  • 太原做网站的wordpress 手机端api
  • 网站开发与rest老河口网站设计
  • 广州个人网站搭建二次元wordpress博客
  • 企业网站用什么cms比较好平面设计在哪里学
  • 网站什么也没动怎么不收录啦wordpress边栏扩大尺寸
  • 专业的聊城网站建设成都品牌策划设计公司
  • 新开神途手游发布网站wordpress 获取分类地址
  • 网站建设亿码酷出名5万站霸屏
  • 仿制网站建设山东关键词优化联系电话
  • 律所网站建设国队男子接力赛有哪些做短租的网站
  • 常用的网站推广方法制作简历模板网站
  • c2c网站有哪些网站可以先做代码么
  • 阿里云简单网站建设wordpress+调整+行距
  • 想自己做网站推广郴州网站建设哪里比较好
  • 实用网站推荐小程序权限超时
  • 济源市建设工程管理处网站wordpress模板搜索功能404
  • 成都三网合一网站建设网站广告收费标准