当前位置: 首页 > news >正文

建设银行网站的目的网站怎么自己编辑模块

建设银行网站的目的,网站怎么自己编辑模块,开平做网站,新手学做网站 电子书CrawlSpider 1. CrawlSpider继承自scrapy.Spider 2. CrawlSpider可以定义规则#xff0c;再解析html内容的时候#xff0c;可以根据链接规则提取出指定的链接#xff0c;然后再向这些链接发送请求#xff0c;所以#xff0c;如果有需要跟进链接的需求#xff0c;意思就是…CrawlSpider 1. CrawlSpider继承自scrapy.Spider 2. CrawlSpider可以定义规则再解析html内容的时候可以根据链接规则提取出指定的链接然后再向这些链接发送请求所以如果有需要跟进链接的需求意思就是爬取了网页之后需要提取链接再次爬取使用Crawlspider是非常合适的 使用scrapy shell提取 1. 在命令提示符中输入 scrapy shell https://www.dushu.com/lianzai/1115.html 2. 导入链接提取器from scrapy.linkextractors import LinkExtractor 3.  allow () 正则表达式 提取符合正则的链接 5. 查看连接提取器提取的内容  6. restrict_xpaths () xpath语法提取符合xpath规则的链接 查看提取的内容 7. restrict_css ()  提取符合选择器规则的链接 小案例 1. 创建项目scrapy startproject 项目名 2. 跳转到spider目录下 cd .\项目名\项目名\spiders\ 3. 创建爬虫类scrapy genspider -t crawl 爬虫文件名 要爬取的网页 这里与之前的不一样 4. 运行scrapy crawl  爬虫文件名 callback只能写函数字符串 followtrue 是否跟进 就是按照提取连接规则进行提取 爬虫文件 import scrapy from scrapy.linkextractors import LinkExtractor from scrapy.spiders import CrawlSpider, Rule from scrapy_readbook_20240120.items import ScrapyReadbook20240120Itemclass RbookSpider(CrawlSpider):name rbookallowed_domains [www.dushu.com]start_urls [https://www.dushu.com/lianzai/1115_1.html]rules (Rule(LinkExtractor(allowr/lianzai/1115_\d.html),callbackparse_item,followFalse),)def parse_item(self, response):print()img_list response.xpath(//div[classbookslist]//img)for img in img_list:src img.xpath(./data-original).extract_first()name img.xpath(./alt).extract_first()book ScrapyReadbook20240120Item(namename, srcsrc)yield book pipelines.py文件 class ScrapyReadbook20240120Pipeline:def open_spider(self, spider):self.fp open(book.json, w, encodingutf-8)def process_item(self, item, spider):self.fp.write(str(item))return itemdef close_spider(self, spider):self.fp.close() items.py文件 import scrapyclass ScrapyReadbook20240120Item(scrapy.Item):# define the fields for your item here like:# name scrapy.Field()name scrapy.Field()src scrapy.Field()settings.py文件 # 开启管道 ITEM_PIPELINES {scrapy_readbook_20240120.pipelines.ScrapyReadbook20240120Pipeline: 300, } 保存在数据库中 1. 创建数据库 create database 数据库名字 charset utf8; 2. 使用数据库 use 数据库名字; 3. 创建表格 例子 create table 表名(     id int primary key auto_increment,     name varchar(128),     src varchar(128) ); 4. 在settings.py 文件中添加 ip地址、端口号、数据库密码、数据库名字、字符集 DB_HOST localhost  # ip地址 DB_PORT 3306  # 端口号必须是整数 DB_USER root  # 数据库用户名 DB_PASSWORD 123456  # 数据库密码 DB_NAME rbook  # 数据库名字 DB_CHARSET utf8  # 字符集不允许写 - 5. 在pipelines管道文件中增加 # 加载settings文件 from scrapy.utils.project import get_project_settings import pymysqlclass MysqlPipeline:def open_spider(self, spider):settings get_project_settings()self.host settings[DB_HOST] # ip地址self.port settings[DB_PORT] # 端口号self.user settings[DB_USER] # 数据库用户名self.password settings[DB_PASSWORD] # 数据库密码self.name settings[DB_NAME] # 数据库名字self.charset settings[DB_CHARSET] # 字符集self.connect()def connect(self):self.conn pymysql.connect(hostself.host,portself.port,userself.user,passwordself.password,dbself.name,charsetself.charset)self.cursor self.conn.cursor()def process_item(self, item, spider):sql insert into rbook(name,src) values({},{}).format(item[name], item[src])# 执行sql语句self.cursor.execute(sql)# 提交sql语句self.conn.commit()return itemdef close_spider(self, spider):# 关闭数据库链接self.cursor.close()self.conn.close() 6. settings文件添加新的管道 ITEM_PIPELINES {scrapy_readbook_20240120.pipelines.ScrapyReadbook20240120Pipeline: 300,scrapy_readbook_20240120.pipelines.MysqlPipeline: 301, } 7. 若要一直下载把所有数据都下载则需要把爬虫文件里的 follow 的值设为 True 数据库的数据
http://www.pierceye.com/news/504166/

相关文章:

  • wordpress文章目录分页wordpress加速优化服务
  • 二级目录网站怎么做小程序开发成都公司
  • 网站标题名字和备案名字网站开发 质量管理
  • 网站与系统开发吉安网站建设收费
  • 湖北襄阳网站建设wordpress电商ar
  • 微做网站环保行业网站建设
  • 昭通做网站公司北京手机网站制作多少钱
  • 昆明企业建网站多少钱如何弄微信小程序
  • wordpress清理网站缓存做的比较简约的网站
  • 青岛高端网站制作中铁建设集团门户密码
  • 公司专业做网站做网站域名起什么作用
  • 推广型网站建设机构如何创建wordpress
  • 做网站交互demo工具在线设计自己的签名免费
  • 做百度推广会送网站吗网站建设和邮箱的关联
  • 假网站如何做济南天桥区网站建设
  • 顺企网我做网站余姚网站建设在哪里
  • 做网站logo用啥软件做电子书网站
  • 企业网站推广的策略有哪些php怎么建立站点
  • 找网站设计公司 看那些wordpress居中
  • 无锡网站营销公司哪家好全屏网页设计尺寸
  • 做第一个网站什么类型网站搜索引擎优化案例
  • 网站代码生成网站网站开发专业 工作意愿
  • ps做网站效果图尺寸如何重庆网站建设选夹夹虫
  • 上鼎工程建设有限公司网站最简单的手机网站制作
  • 网站维护企业网站的后缀名
  • 建设网站需要哪些认证做公众号的网站模板下载吗
  • 搜狗提交网站入口Wordpress登录后顶部的黑
  • 计算机网络技术就业方向及前景西安seo网站排名优化公司
  • 手机网站要求软文推广图片
  • 网站在哪里建立用h5开发的网站模板