杭州余杭网站制作,南宁市兴宁区建设局网站,申请注册商标的流程,滨海做网站的价格微博热搜的爬取较为简单#xff0c;我只是用了lxml和requests两个库1.分析网页的源代码#xff1a;右键--查看网页源代码.从网页代码中可以获取到信息(1)热搜的名字都在的子节点里(2)热搜的排名都在的里(注意置顶微博是没有排名的#xff01;)(3)热搜的访问量都在的子节点里…微博热搜的爬取较为简单我只是用了lxml和requests两个库1.分析网页的源代码右键--查看网页源代码.从网页代码中可以获取到信息(1)热搜的名字都在的子节点里(2)热搜的排名都在的里(注意置顶微博是没有排名的)(3)热搜的访问量都在的子节点里2.requests获取网页(1)先设置url地址然后模拟浏览器(这一步可以不用)防止被认出是爬虫程序。###网址urlhttps://s.weibo.com/top/summary?refertop_hottopnav1wvr6###模拟浏览器这个请求头windows下都能用header{user-agent:mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/73.0.3683.103 safari/537.36}(2)利用req uests库的get()和lxml的etr ee()来获 取网页代码###获取html页面htmletree.html(requests.get(url,headersheader).text)3.构造xpath路径上面第一步中三个xath路径分别是affairhtml.xpath(//td[classtd-02]/a/text())rankhtml.xpath(//td[classtd-01 ranktop]/text())viewhtml.xpath(//td[classtd-02]/span/text())xpath的返回结果是列表所以affair、rank、view都是字符串列表4.格式化输出需要注意的是affair中多了一个置顶热搜我们先将他分离出来。topaffair[0]affairaffair[1:]这里利用了python的切片。print({0:10}\t{1:40}.format(top,top))for i in range(0, len(affair)):print({0:10}\t{1:{3}30}\t{2:{3}20}.format(rank[i],affair[i],view[i],chr(12288)))这里还是没能做到完全对齐。。。5.全部代码###导入模块import requestsfrom lxml import etree###网址urlhttps://s.weibo.com/top/summary?refertop_hottopnav1wvr6###模拟浏览器header{user-agent:mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/73.0.3683.103 safari/537.36}###主函数def main():###获取html页面htmletree.html(requests.get(url,headersheader).text)rankhtml.xpath(//td[classtd-01 ranktop]/text())affairhtml.xpath(//td[classtd-02]/a/text())view html.xpath(//td[classtd-02]/span/text())topaffair[0]affairaffair[1:]print({0:10}\t{1:40}.format(top,top))for i in range(0, len(affair)):print({0:10}\t{1:{3}30}\t{2:{3}20}.format(rank[i],affair[i],view[i],chr(12288)))main()结果展示:总结以上所述是小编给大家介绍的python网络爬虫之爬取微博热搜,希望对大家有所帮助希望与广大网友互动点此进行留言吧