当前位置: 首页 > news >正文

西北电力建设甘肃工程公司网站足球比赛直播回放

西北电力建设甘肃工程公司网站,足球比赛直播回放,做网站做小程序推广,有谁知道哪个网址文章目录 爬虫介绍requsets模块和快速使用携带请求头携带cookie的两种方式post携带参数模拟登录 取出cookie和处理cookie响应对象证书使用代理超时 异常处理 上传文件 爬虫介绍 # 爬虫是什么#xff1f;-通过编程技术---》把互联网中的数据---》获取到---》数据清洗---》存到… 文章目录 爬虫介绍requsets模块和快速使用携带请求头携带cookie的两种方式post携带参数模拟登录 取出cookie和处理cookie响应对象证书使用代理超时 异常处理 上传文件 爬虫介绍 # 爬虫是什么-通过编程技术---》把互联网中的数据---》获取到---》数据清洗---》存到库中python:request,selenium---》app小程序网站---》xpahtlxml---》mysqlredis文件excelmongodb-通过编程语言---》模拟发送http请求---》获取数据---》解析--》入库-爬取过程 解析过程 会遇到反扒-抓app小程序---》抓包工具---》抓取手机发送的所有请求-charles-Fiddler# 爬虫 有爬虫协议-君子协议-https://xxx/robots.txt # 百度 是个大爬虫-百度/谷歌 搜索引擎---》启动了一个爬虫---》一刻不停的在互联网中爬取网站---》存到库中(es)-用户在百度输入框中---》输入搜索内容---》去百度的库中搜索--》返回给前端---》前端点击---》去了真正的地址-seo 优化-不花钱---》搜索关键词的结果---》排的靠前-伪静态-sem 优化-花钱买关键词requsets模块和快速使用 import requests# gie携带参数 # 第一种 直接写在地址栏中 res requests.get(https://api.map.baidu.com/place/v2/search?ak6E823f587c95f0148c19993539b99295region上海query肯德基outputjson) print(res.text)# 第二种 params {} params {ak: 6E823f587c95f0148c19993539b99295,region: 上海,query: 肯德基,output: json, }res requests.get(https://api.map.baidu.com/place/v2/search, paramsparams) print(res.text)# 编码与解码 from urllib.parse import quote,unquote s上海 # %E4%B8%8A%E6%B5%B7 print(quote(s))print(unquote(%E4%B8%8A%E6%B5%B7))携带请求头 import requests# 携带请求头 如果程序模拟的不像 访问不到数据 headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/121.0.0.0 Safari/537.36 } res requests.get(https://dig.chouti.com/,headersheaders)print(res.text) 携带cookie的两种方式 # 发送post请求 # 请求头的参数必带 # 携带cookie的第一种方式 headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/121.0.0.0 Safari/537.36,# 登录之后回返回cookie 没有登录---》返回的数据不是咱们想要的Cookie: tokeneyJ0eXAiOiJKV1QiLCJhbGciOiJIUzI1NiJ9.eyJqaWQiOiJjdHVfNzA4NjEwMzY4NTkiLCJleHBpcmUiOiIxNzExMjAyMzY4ODAyIn0.TnUYjU6KqR1itEW6QkTSSUfqc48rkT3hnsg4Cvh4XA4; path/; Max-Age2592000, } # 你点赞作品的id号 data {linkId: 41601398 } # 在请求头中注意点赞的地址 res requests.post(https://dig.chouti.com/link/vote,headersheaders,datadata) print(res.text)# 第二种携带cookie的方式 headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/121.0.0.0 Safari/537.36, } data {linkId: 41600539 } cookie {# 如果不成功 继续携带参数测试token: eyJ0eXAiOiJKV1QiLCJhbGciOiJIUzI1NiJ9.eyJqaWQiOiJjdHVfNzA4NjEwMzY4NTkiLCJleHBpcmUiOiIxNzExMjAyMzY4ODAyIn0.TnUYjU6KqR1itEW6QkTSSUfqc48rkT3hnsg4Cvh4XA4; path/; Max-Age2592000, } # 没有登录---》返回的数据不是咱们想要的 res requests.post(https://dig.chouti.com/link/vote, headersheaders, datadata, cookiescookie) print(res.text)post携带参数 import requests # 方式一data参数:urlencoded # post请求三种编码方式jsonurlencodedform-data # 咱们以data字典形式携带---urlencoded编码---》最终它会被编码为---》namelqzage19 --放在请体中 #data{} resrequests.post(地址,datadata) # resrequests.post(地址,data{name:lqz,age:19}) resrequests.post(地址,databnamelqzage19)# 方式二json编码:json # 咱们以json字典形式携带---json编码---》最终它会被编码为---》{name:lqz,age:19} --放在请体中 resrequests.post(地址,json{name:lqz,age:19})模拟登录 取出cookie和处理cookie import requests # 第一种方式 import requestsdata {username: 616564099qq.com,password: lqz123111,captcha: 3333,remember: 1,ref: http://www.aa7a.cn/, # 你想购买产品但是没登录 登录成功重定向到这个地址act: act_login, } header {User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/121.0.0.0 Safari/537.36 } # 提交数据登录 res requests.post(http://www.aa7a.cn/user.php, headersheader, datadata) print(res.text) # 登录成功的cookie cookies res.cookies print(cookies)# 向首页发送请求---登录状态 res requests.get(http://www.aa7a.cn/, cookiescookies) print(616564099qq.com in res.text)# 第二种 import requests session requests.session() # 以后发送请求使用sessiondata {username: 616564099qq.com,password: lqz12311,captcha: 3333,remember: 1,ref: http://www.aa7a.cn/, # 登录成功重定向到这个地址act: act_login, } header {User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/121.0.0.0 Safari/537.36 } # session自动获取cookie并且携带过去 res session.post(http://www.aa7a.cn/user.php, headersheader, datadata)# 向首页发送请求---登录状态 res1 session.get(http://www.aa7a.cn/)# 登录成功之后可以判断一下用户之后在不在登录页面 print(616564099qq.com in res1.text)响应对象 # response 对象---》http响应### 使用requests模块 # 发送请求request对象请求头请求参数请求体---》本质就是http请求--》被包装成一个对象 # 响应回来response对象http响应--》cookie响应头响应体。。# 爬取图片--》图片防盗链---》referfer--》请求头中即可import requestsheader {User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/121.0.0.0 Safari/537.36 } respone requests.get(https://www.jianshu.com/,headersheader) # respone属性 print(respone.text) # 响应体---》字符串形式print(respone.content) # 响应体---》bytes格式print(respone.status_code) # 响应状态码print(respone.headers) # 响应头 print(respone.cookies) # 响应的cookie print(respone.cookies.get_dict()) # cookiejar对象---转成字典格式 print(respone.cookies.items()) # cookie的value值print(respone.url) # 请求地址 print(respone.history) # 访问历史---》重定向才会有print(respone.encoding) # 编码格式res respone.iter_content() # 图片,视频---》迭代着把数据保存到本地 # 如果下载图片视频。。。# 图片防盗链---》通过referer做的--》请求头中有个referer参数--》上次访问的地址 # resrequests.get(https://tupian.qqw21.com/article/UploadPic/2022-2/20222102371522350.jpg)import requestsheader {Referer: http://www.baidu.com # 从哪里访问的 } res requests.get(https://meizi5.com/wp-content/uploads/2024/02/VOL_181_1.jpg, headersheader) print(res.url) print(res.content) with open(美女.jpg,wb) as f:f.write(res.content)# with open(code.jpg, wb) as f: # for line in res.iter_content(chunk_size1024): # 每次写入文件多大 防止数据量过大 # f.write(line) 证书 # http 和 https-http超文本传输协议-https安全的超文本传输协议-httpshttpssl/tls-防止篡改截取。。。。-必须有证书才能通信import requests header {User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/121.0.0.0 Safari/537.36 } respone requests.get(https://www.jianshu.com/,headersheader,verifyFalse)# 加上这个就不验证证书 # respone requests.get(https://www.jianshu.com/,headersheader,cert(/path/server.crt,/path/key)) print(respone.text)使用代理 import requests # 免费代理池 很少有用的 发一个请求取出一次代理 res requests.get(http://demo.spiderpy.cn/get/?typehttps) print(res.json()) print(res.json()[proxy]) # 取出代理 # 112.30.155.83:12792header {User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/121.0.0.0 Safari/537.36 } # proxies{https: res.json()[proxy]} 使用代理获取数据 如果代理用不了 则是连接失败 response requests.get(https://www.jianshu.com/, headersheader, proxies{https: res.json()[proxy]}) print(response.text)超时 异常处理 上传文件 ## 超时 自己设置一个时间 超过时间数据没请求会来就报错 import requests responerequests.get(https://www.baidu.com,timeout1)# 异常处理 import requests from requests.exceptions import * #可以查看requests.exceptions获取异常类型try:rrequests.get(http://www.baidu.com,timeout0.00001) except ReadTimeout:print(:) # except ConnectionError: #网络不通 # print(-----) # except Timeout: # print(aaaaa)except RequestException:print(Error)# 上传文件import requests files{file:open(a.jpg,rb)} responerequests.post(http://httpbin.org/post,filesfiles) print(respone.status_code)
http://www.pierceye.com/news/259083/

相关文章:

  • 电子产品配件采购网站阿里云 虚拟主机 wordpress
  • 网站的电子手册用什么做的百度云搜索引擎官网
  • 网站代码隐蔽代码jsp网站开发pdf
  • 厚街手机网站制作网站开发年终总结
  • 泉州网站建设技术外包网站建设的具体奖罚措施
  • 汕头企业网站推广技巧南宁关键词网站排名
  • 做我的世界背景图的网站阿里云服务器做网站外网访问慢
  • 云南百度智能建站登录wordpress数据库吗
  • 万网买好域名后如何开通网站网站历史记录怎么恢复
  • 游戏租号网站开发网页设计的技术有哪些
  • 工信部网站备案文件合肥网站制作建设
  • 网站架设标准网站域名注册费用
  • 东莞网站制作功能十堰微网站建设价格
  • google关键词分析工具网站建设seo 视频教程
  • 泸州市规划建设局网站网站建设及维护包括范围
  • 网站设计培训成都哪个网站开发软件
  • 四川炜航建筑公司网站新郑网络推广外包
  • 网站建设名头网站项目建设方案
  • 可以用asp做哪些网站简历模板大学生免费
  • 公司 宜宾网站建设头条小程序
  • 大连h5建站学院网站建设申请报告
  • 大蒜做营销型网站贵州最好的网站建设推广公司
  • 单仁资讯做网站怎样备案网站应用服务
  • 如何生成一个网站怎么查看一个网站有没有做推广
  • 温州网站设计案例wdcp创建多个网站
  • 做个公司网站专业做网站app的公司
  • 动漫网站源码下载莱芜金点子最新招工信息
  • 小区住宅可以注册公司吗简述seo的概念
  • 做农村电商要多少钱南宁软件优化网站
  • 网站系统建设技术服务费网站建设 专项资金变更