外国s网站建设,网站怎么做网上报名,wordpress博客设置,怎样建设网站教程爬虫#xff08;又称为网页蜘蛛#xff0c;网络机器人#xff0c;在 FOAF 社区中间#xff0c;更经常的称为网页追逐者#xff09;#xff1b;它是一种按照一定的规则#xff0c;自动地抓取网络信息的程序或者脚本。
如果我们把互联网比作一张大的蜘蛛网#xff0c;那…爬虫又称为网页蜘蛛网络机器人在 FOAF 社区中间更经常的称为网页追逐者它是一种按照一定的规则自动地抓取网络信息的程序或者脚本。
如果我们把互联网比作一张大的蜘蛛网那一台计算机上的数据便是蜘蛛网上的一个猎物而爬虫程序就是一只小蜘蛛他们沿着蜘蛛网抓取自己想要的猎物/数据。 爬虫的基本流程 网页的请求与响应
网页的请求和响应方式是 Request 和 Response Request用户将自己的信息通过浏览器socket client发送给服务器socket server Response服务器接收请求分析用户发来的请求信息收到请求信息后返回数据返回的数据中可能包含其他链接如image、js、css等 浏览器在接收 Response 后会解析其内容来显示给用户而爬虫程序在模拟浏览器发送请求然后接收 Response 后是要提取其中的有用数据。
发起请求Request
请求的发起是使用 http 库向目标站点发起请求即发送一个Request
Request对象的作用是与客户端交互收集客户端的 Form、Cookies、超链接或者收集服务器端的环境变量。
Request 对象是从客户端向服务器发出请求包括用户提交的信息以及客户端的一些信息。客户端可通过 HTML 表单或在网页地址后面提供参数的方法提交数据。
然后服务器通过 request 对象的相关方法来获取这些数据。request 的各种方法主要用来处理客户端浏览器提交的请求中的各项参数和选项。
Request 包含请求 URL、请求头、请求体等
Request 请求方式 GET/POST
请求url: url全称统一资源定位符一个网页文档、一张图片、 一个视频等都可以用url唯一来确定
请求头 User-agent请求头中如果没有 user-agent 客户端配置服务端可能将你当做一个非法用户
cookies cookie 用来保存登录信息
一般做爬虫都会加上请求头
例如抓取百度网址的数据请求信息如下
获取响应内容
爬虫程序在发送请求后如果服务器能正常响应则会得到一个Response即响应 Response 信息包含html、json、图片、视频等如果没报错则能看到网页的基本信息。例如一个的获取网页响应内容程序如下
import requests
request_headers{
Accept: text/html,application/xhtmlxml,application/xml;q0.9,image/avif,image/webp,image/apng,*/*;q0.8,application/signed-exchange;vb3;q0.9,
Cookie: BIDUPSID088AEC1E85F75590978FB3643E131FBA; PSTM1603682377; BD_UPN12314753; BDUSS_BFESSs877ukkvpiduup96naoovu0b94; __yjs_duid1_04c448abb85383e7fef98fb64b828cce1611538687284; BAIDUIDC6421D51B2DBFF82716EE84B116A4EF8:FG1; BDSFRCVID_BFESSrqtOJeC62uF1xmOeQXfguRnVq2hi4t5TH6aINJzxxKt_7w4IsZNSEG0PVf8g0Kubuo1BogKKWeOTHx8F_2uxOjjg8UtVJeC6EG0Ptf8g0f5; H_BDCLCKID_SF_BFESStbCH_ItXfCP3JRnYb-Qoq4D_MfOtetJyaR0fKU7vWJ5TEJjz3tuabp_8Lx4H3bQNaHc3Wlvctn3cShPCy-7m-p_z-J6bK6jULNchMhrL3l02VMQae-t2ynLV5HAOW-RMW23U0l7mWPPWsxA45J7cM4IseboJLfT-0bc4KKJxbnLWeIJEjjChDTcyeaLDqbQX2COXsROs2ROOKRcgq4bohjPDynn9BtQmJJrtX4Jtb4oqE4FxQRoChlKJhJAO2JJqQg-q3R5lLt02VlQueq3vBP0Fbfv80x-jLIOOVn0MW-KVo-Jz5tnJyUPibtnnBnkO3H8HL4nv2JcJbM5m3x6qLTKkQN3T-PKO5bRu_CFbtC_hMD-6j6RV-tAjqG-jJTkjt-o2WbCQ-tjM8pcNLTDK5f5L2Mc9Klov5DvtbJrC-CosjDbmjqO1j4_PX46EhnvibN8fLKbY-McFVp5jDh34b6ksD-Rt5JQytmry0hvcQb5cShn9eMjrDRLbXU6BK5vPbNcZ0l8K3l02V-bIe-t2b6Qh-p52f6LjJbC83e; BDORZB490B5EBF6F3CD402E515D22BCDA1598; H_PS_PSSID33425_33439_33258_33272_31660_33463_33459_33321_33264; BAIDUID_BFESS983CAD9571DCC96332320F573A4A81D5:FG1; delPer0; BD_CK_SAM1; PSINO7; BDRCVFR[tox4WRQ4-Km]mk3SLVN4HKm; BDRCVFR[-pGxjrCMryR]mk3SLVN4HKm; BDRCVFR[CLK3Lyfkr9D]mk3SLVN4HKm; BDRCVFR[dG2JNJb_ajR]mk3SLVN4HKm; BD_HOME1; H_PS_645EC0c49V2LWy0d6V4FbFplBYiy6xyUu88szhVpw2raoJDgdtE3AL0TxHMUUFPM; BA_HECTOR0l05812h21248584dc1g38qhn0r; COOKIE_SESSION1_0_8_3_3_9_0_0_7_3_0_1_5365_0_3_0_1614047800_0_1614047797%7C9%23418111_17_1611988660%7C5; BDSVRTM1,
Host:www.baidu.com,
User-Agent:Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.182 Safari/537.36}
response requests.get(https://www.baidu.com/s,params{wd:帅哥},headersrequest_headers) #params内部就是调用urlencode
print(response.text)以上内容输出的就是网页的基本信息它包含 html、json、图片、视频等如下图所示 Response 响应后会返回一些响应信息例下 1、响应状态
200代表成功301代表跳转404文件不存在403权限502服务器错误
2、Respone header
set-cookie可能有多个是来告诉浏览器把cookie保存下来
3、preview 是网页源代码
最主要的部分包含了请求资源的内容如网页html、图片、二进制数据等
4、解析内容
解析 html 数据解析 html 数据方法有使用正则表达式、第三方解析库如 Beautifulsouppyquery 等
解析 json 数据解析 json数据可使用 json 模块
解析二进制数据:以 b 的方式写入文件
5、保存数据
爬取的数据以文件的形式保存在本地或者直接将抓取的内容保存在数据库中数据库可以是 MySQL、Mongdb、Redis、Oracle 等……
写在最后
爬虫的总流程可以理解为蜘蛛要抓某个猎物–沿着蛛丝找到猎物–吃到猎物即爬取–解析–存储 在爬取数据过程中所需参考工具如下 爬虫框架Scrapy 请求库requests、selenium 解析库正则、beautifulsoup、pyquery 存储库文件、MySQL、Mongodb、Redis……
总结
今天的文章是对爬虫的原理做一个详解希望对大家有帮助同时也在后面的工作中奠定基础