当前位置: 首页 > news >正文

整合营销网络推广网站建设优化两千字

整合营销网络推广,网站建设优化两千字,wordpress微笑信息授权,建设银行激活网站#urllib的爬虫案例#xff0d;通过最原始的爬虫方式 爬虫之前如果抓包工具Fiddler证书安装失败#xff0c;采用以下方法 1、打开cmd 2、进入fillder的目录 如下#xff1a; 里面的路径改成你自己的安装路径 cd /d D:\Program Files (x86)\Fiddler2 然后再执行下…#urllib的爬虫案例通过最原始的爬虫方式 爬虫之前如果抓包工具Fiddler证书安装失败采用以下方法 1、打开cmd 2、进入fillder的目录 如下 里面的路径改成你自己的安装路径 cd /d D:\Program Files (x86)\Fiddler2 然后再执行下面命令 makecert.exe -r -ss my -n CNDO_NOT_TRUST_FiddlerRoot, ODO_NOT_TRUST, OUCreated by http://www.fiddler2.com -sky signature -eku 1.3.6.1.5.5.7.3.1 -h 1 -cy authority -a sha1 -m 120 -b  1.爬取百度贴吧数据 import urllib #用于进行中文编码 import urllib2 #用于进行爬虫核心处理#定义一个函数用于爬取对应的数据 def load_url(url,file_name):print(开始爬取%s的内容%file_name)#爬取程序my_headers{User-Agent: Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 Safari/537.36,}request urllib2.Request(url,headersmy_headers)content urllib2.urlopen(request).read()print(爬取%s的内容完成%file_name)return content#定义一个函数用于保存数据 def save_data(data,file_name):print(开始保存%s的内容%file_name)with open(file_name,w) as f:f.write(data)print(保存%s的内容完成%file_name)#定义函数进行爬虫的核心处理功能 def spider(url,kw,begin,end):for page in range(begin,end1):#计算需要的页码pn (page-1)*50#进行kw参数的编码kw urllib.urlencode({kw:kw})#拼接url地址full_url url kw pn str(pn)#定义一个保存文件的名称file_name 网页str(page) .html#开始爬取数据htmlload_url(full_url,file_name)#保存数据到文件save_data(html,file_name)#主程序运行入口 if __name__ __main__:#用户输入相关数据urlhttp://tieba.baidu.com/f?kw raw_input(请输入要爬取的贴吧名称)begin int(raw_input(请输入开始页码))end int(raw_input(请输入结束页码))#调用爬虫开始执行spider(url,kw,begin,end)2.爬取豆瓣电影数据 import urllib import urllib2url https://movie.douban.com/j/new_search_subjects?sortTrange0,10#要传递的post方式嗯对数据有可能会有多组数据 submit_data {start:20,tags:喜剧 } #编码 data urllib.urlencode(submit_data)#构造请求头创建请求对象 headers {Accept : application/json, text/plain, */*,User-Agent : Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.7 Safari/537.36,Accept-Language : zh-CN,zh;q0.8 }request urllib2.Request(url,data,headers)#发送请求获取服务器响应数据 response urllib2.urlopen(request)#获取爬取到的数据 content response.read()#保存数据 with open(movies.json,w) as f:f.write(content)
http://www.pierceye.com/news/787801/

相关文章:

  • 化妆品网站系统规划wordpress 站群软件
  • 深圳低价做网站广告免费设计在线生成
  • 网站服务体系网站开发补充合同范本
  • 萝岗做网站网站优化大计
  • 服装店网站模板北京网站设计公司哪个好
  • 网站运维工作内容网页设计与制作课程小结
  • 2019网站怎么做网站快速备案公司
  • 上饶网站制作专业网站设计如何提升网页品质
  • 哈尔滨微信网站建设学网站设计和平面设计
  • 网站开发公司网站官网焦作建设企业网站公司
  • 设备上哪个网站做外贸推广php版本不同于wordpress使用
  • 虚拟服务器怎样做网站广州 骏域网站建设专家
  • 谁有做任务网站色多多导入百媚导航
  • 做网站怎么加视频素材网免费
  • 想做棋牌网站怎么做做电商的进货网站
  • 做微信小程序和做网站南昌网站备案
  • 好的摄影网站推荐抖音点赞自助网站
  • 能够做代理的网站有哪些问题朝阳区住房和城乡建设部网站
  • 网站建设与管理考察报告中国农业建设信息网站
  • 张家界做网站中天建设集团有限公司怎么样
  • 广州网站百度排名推广聊天代理分销系统
  • 全球采购网站有哪些网站平台
  • wordpress怎么做商城网站软件工程师证书含金量
  • 锡林浩特建设局网站推广方法有哪几种
  • 汉南城乡建设局网站活动页面设计
  • 滕州网站搜索引擎优化新浪企业邮箱
  • 涿州网站建设珠海网站制作计划
  • 摄影网站设计思想wordpress 同步插件
  • 手机网站不支持下载的视频怎么下载重庆哪里可以做网站的
  • 网站设计深圳联系电话?长沙市房产交易中心官网