当前位置: 首页 > news >正文

怎么用wordpress做企业网站网站建设好还是阿里巴巴好

怎么用wordpress做企业网站,网站建设好还是阿里巴巴好,seo公司优化,佛山便宜网站建设前言: 对于网络上的一些免费代理ip,http的有效性还是不错的;但是,https的可谓是凤毛菱角; 正巧,有一个web可以用http访问,于是我就想到不如直接拿着免费的HTTP代理去做这个! 思路: 1.单页获取ipporttime (获取time主要是为了后面使用的时候,依照时效可以做文章) 2.整页验证(…前言: 对于网络上的一些免费代理ip,http的有效性还是不错的;但是,https的可谓是凤毛菱角; 正巧,有一个web可以用http访问,于是我就想到不如直接拿着免费的HTTP代理去做这个! 思路: 1.单页获取ipporttime (获取time主要是为了后面使用的时候,依照时效可以做文章) 2.整页验证(一个page里面可能有N个ip,通过验证判断有多少个有效ip可以使用)----这里需要使用多线程进行验证;否则,光验证那么多ip都要耗掉不少时间! import logging from bs4 import BeautifulSoup from datetime import datetime, timedelta import time import requests from concurrent.futures import ThreadPoolExecutor# 配置日志记录器 logging.basicConfig(levellogging.ERROR, format%(asctime)s - %(levelname)s - %(message)s,filenameget_ip_error.log)time_threshold 15 # 录入IP的时间和当前时间差阈值小于等于15分钟时进行检查 page_valid 3 # 当每次超过X个有效IP时返回url_kuai http://www.kuaidaili.com/free/inha/ #请求头 headers {user-agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36, }def check_proxy(p):多线程检查代理IP的有效性:param p: 代理IP列表[]:return: 有效的代理IP列表url http://httpbin.org/ip # 用于测试代理IP有效性的网站valid_proxies []def check_single_proxy(proxy):proxies {http: fhttp://{proxy[ip]}:{proxy[port]},# https: fhttps://{proxy[ip]}:{proxy[port]}}try:response requests.get(url, proxiesproxies, timeout1.5)if response.ok:valid_proxies.append(proxy)except requests.exceptions.RequestException as e:pass# 开启多线程检查with ThreadPoolExecutor() as executor:executor.map(check_single_proxy, p)return valid_proxiesdef get_kuaidaili(page):获取89ip的代理IP列表:param page: 页码:return: 有效的代理IP列表和页码try:valid_ip_list []while page 25:#在这里,只有当有效ip数量3的时候,他才会停止;否则,就会不停增加page去爬取;full_url url_kuaistr(page) # 根据页码构建URLprint(当前正在爬取网页---, full_url)response requests.get(full_url,headersheaders)if response.ok:html response.textsoup BeautifulSoup(html, html.parser)table soup.find(table, class_table table-b table-bordered table-striped)tbody table.find(tbody)# if time_diff(tbody,6): #如果时间差在XX分钟以内,就开始检验ip(第6个td是时间) 他更新不快,所以不能用时间去筛选valid_proxies tbody_add_proxy(tbody,6) # 获取tbody的数据(time的位置6)if valid_proxies is not None and len(valid_proxies) 0:valid_ip_list.extend(valid_proxies)if len(valid_ip_list) page_valid: # 有效 IP 数量大于等于 page_valid 就停止爬取breakpage 1else:page0#当page25的时候,page1重新开始return valid_ip_list, pageexcept requests.exceptions.RequestException as e:print(f爬取异常: {e})return valid_ip_list, pagedef time_diff(table,much):查询当前页的IP更新时间判断是否小于等于阈值 time_threshold若是返回True:param table: IP表格:return: 时间是否小于等于阈值rows table.find_all(tr)given_time datetime.strptime(rows[0].find_all(td)[much].text.strip(), %Y/%m/%d %H:%M:%S)current_time datetime.now()time_difference current_time - given_timereturn time_difference timedelta(minutestime_threshold)def tbody_add_proxy(tbody,much):提取代理IP和端口信息并将其构建为列表形式:param tbody: 表格内容:return: 代理IP和端口的列表proxy_list []rows tbody.find_all(tr)for row in rows:proxy {}cells row.find_all(td)proxy[ip] cells[0].text.strip()proxy[port] cells[1].text.strip()proxy[time] cells[much].text.strip()proxy_list.append(proxy)return check_proxy(proxy_list) #返回有效的ip[(list)] 3.存入redis(我需要考虑的是:ip是否重复了?ip提取的时候什么时候进行补充?) import redis import json# 创建连接池 pool_config {host: localhost,port: 6379,db: 0,max_connections: 10,decode_responses: True,encoding: utf-8 }# 创建redis连接池 pool redis.ConnectionPool(**pool_config)def add_to_sorted_set(ip):将IP添加到有序集合中确保唯一性:param ip: IP信息的字典r redis.Redis(connection_poolpool)ip_de json.dumps(ip)# 判断IP在有序集合中是否已存在if not r.zscore(valid, ip_de):r.zadd(valid, {ip_de: 0})def find_valid_ip():获取当前Redis中有效IP的数量:return: 有效IP的数量r redis.Redis(connection_poolpool)count r.zcard(valid) #因为是有序集合,所以需要用zcardif count is None:return 0return countdef pop_from_sorted_set():从有序集合中弹出一个元素按添加顺序:return: 弹出的IP信息字典r redis.Redis(connection_poolpool)ip_de r.zrange(valid, 0, 0)[0]# 从有序集合中移除已弹出的元素r.zrem(valid, ip_de)return json.loads(ip_de) 4.如何合理去运行ip的爬取? from redis_task import redis_task as redis,get_ipimport time import requests# 配置日志记录器import timedef ip_control():1.检查redis里面是否有足够的有效ip(10)- 足够- 达到目标数量例如 20后停止更新- 休眠一段时间后再继续更新- 不足够- 开始从 check_url(url_parse_dict) 获取新的有效ip- 新的ip如果与现有的 redis ip 重复则不放入- 不重复则放入直到 redis 有效 ip 数量达到目标数量target_count 20 # 目标有效 IP 数量current_page 1 # 保存当前页码while True:count redis.find_valid_ip()print(*******************************************************************)print(f目前redis里面有{count}个有效ip)if count target_count:valid_ips, page get_ip.get_kuaidaili(current_page) # 使用 current_pageprint(f当前返回的页码{page})if valid_ips:print(f有效代理IP有{len(valid_ips)})redis.add_to_sorted_set(valid_ips) #必须添加有序集合,确保唯一性 以及后期提取时可以自动移除current_page page1 # 更新 current_page使其递增else:#此时是redis内的有效ip没达到20个print(此时没有达到20个,怎么办?)else:print(f已经达到目标数量{target_count}30秒后再更新)time.sleep(10)ip_control() 最后: 当然,此时的快代理已经有点不行了.经过我的测试,1~25page 平局只有 8个左右ip有效!  于是需要添加其他的网站------那么什么是好的免费ip网站呢?  就是一小时内,他的免费ip会更新的,一般都是比较不错的网站!!!     把这代码搞懂了,需要素材的可以私
http://www.pierceye.com/news/120908/

相关文章:

  • 做国外的众筹网站有哪些wordpress小红书主题
  • 扩展名 网站百度资源共享链接分享组
  • 东莞市seo网络推广怎么样杭州seo关键词优化哪家好
  • 做网站用什么ui美观微信公众号调用WordPress
  • 用万网做网站企业做网站怎么做
  • 比较好的网站开发教学网站专业做视频的网站有哪些
  • 户外旅游网站模板网站开发需要看相关书籍
  • 建设高端网站的公司企业营销网站建设公司
  • 重庆建设工程信息网站重庆企业网站建设报价
  • 大兴模版网站开发公司哪家好unn建站
  • 工信部网站域名备案查询北京科技网站建设公司
  • 昆明做网站那家好自己动手做网站
  • 女生做seo网站推广北京海岸设计公司网站
  • 单位建设网站硬件拍摄制作宣传片企业
  • 网站做推广应该如何来做呢哪里推广柳州360优化
  • 淘宝网站的建设目的济宁网站建设 中企动力临沂
  • 小米商城网站建设浏览器广告投放
  • 网站制作论文致谢wordpress首页导航栏
  • 网站右下角调用优酷视频广告代码酒泉地网站推广
  • 武清做网站的wordpress选择php
  • 最潮流的网站开发脚本语言icp网站备案
  • 盘锦网站建设平台wordpress英文模板
  • f2c网站建设公司单位名称大全
  • 泉州最专业手机网站建设哪家好重庆网站备案注销
  • 网站素材类型传统网站有没有建设必要性
  • 我的网站模板下载大连金普新区规划建设局网站
  • 营销案例网站织梦系统网站
  • 网站推广优化业务网站开发项目的里程碑
  • 小程序建站哪家好深圳建设银行官方网站
  • 免费红色ppt模板网站装修网站合作