当前位置: 首页 > news >正文

江苏中淮建设集团有限公司网站网页制作的原则是什么

江苏中淮建设集团有限公司网站,网页制作的原则是什么,广西建设监理协会网站,网站做seo第三次参加百度的7天训练营了这次参加的主题是【Python小白逆袭大神】#xff0c;不过你别看是小白逆势。。。除非你一开始参加就逆袭完#xff0c;不然你真的是python小白#xff0c;这个课程还是有难难度的。说一下个训练营的特点版。这个营从python一些基础练习--数据…第三次参加百度的7天训练营了这次参加的主题是【Python小白逆袭大神】不过你别看是小白逆势。。。除非你一开始参加就逆袭完不然你真的是python小白这个课程还是有难难度的。说一下个训练营的特点版。这个营从python一些基础练习--数据可视化--爬虫---综合练习。我从自己在每天做作业的角度讲一下自己心得和一些自己的坑。【Day1-Python基础练习】这个感觉那里都有这个练习题。。。。之前学C语言也有这个题。阴魂不散啊。还真的不知道生成乘法口诀有什么用好吧继续做作业。这题作业无非就考【格式打印】不是考你会不会9*9的乘法口诀。。。注意换行的时候print这个函数自带一个换行符如果不留意就每一行都有隔了两个换行符。还有注意字符输出对齐问题。就这样。def table():#在这里写下您的乘法口诀表代码吧for i in range(1,10):result for j in range(1,i1):result {}*{}{:2d} .format(j, i, j*i)print(result)这个对真的python小白来说就是考虑怎样一个循环套一个循环然后找出目标文件。不过知道python的大名鼎鼎的os库。就知道一个函数os.walk()不用想。 就用它。不要自己重复造轮子。import os #待搜索的目录路径 path Day1-homework #待搜索的名称 filename 2020 #定义保存结果的数组 result [] def findfiles():#在这里写下您的查找文件代码吧global pathindex 1for root, subs, files in os.walk(path):for f in files:if filename in f:result.append([index, os.path.join(root, f)])index 1for group in result:print(group)【Day2-《青春有你2》选手信息爬取】这天的作业就是让你尝试做一只小小的爬虫。让你感受python的实际用途。不在是打印9*9的乘法口诀哈哈哈哈哈哈。作为这个作业你就可以爬其他网站的小姐姐你懂得哈哈哈哈。这里最重要的就是requests和bs4库了爬虫利器。import requests from bs4 import BeautifulSoup #重点就是知道这个库的基本使用 #关键用法就这三行 response requests.get(url,headersheaders) soup BeautifulSoup(response.text,lxml) tables soup.find_all(table,{class:table-view log-set-param})不过这里说一下如果懂一些htmljs那爬起来就顺手很多。因为爬之前要分析网页的构成成分。在游览器按【F12】吧或者点击图片【右键检查元素】吧。如图看到对应元素所在的标签。获取class或者id来定位标签。headers { User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36}urlhttps://baike.baidu.com/item/青春有你第二季 try:response requests.get(url,headersheaders)#将一段文档传入BeautifulSoup的构造方法,就能得到一个文档的对象, 可以传入一段字符串soup BeautifulSoup(response.text,lxml)#返回的是class为table-view log-set-param的table所有标签tables soup.find_all(table,{class:table-view log-set-param})crawl_table_title 参赛学员for table in tables: #对当前节点前面的标签和字符串进行查找table_titles table.find_previous(div).find_all(h3)for title in table_titles:if(crawl_table_title in title):return table except Exception as e:print(e)爬取图片也是这用步骤只是多了一步保存图片的代码不过这里有个小坑就是爬取图册的连接和真正打开图册的链接不一样了这点要注意。看图网址后面多了这个一块不加这块是不能正常爬取图册中每张图片的真正图片img地址完毕。【Day3-《青春有你2》选手数据分析】这节课的作业就是让你熟悉数据可视化。画直方图饼图等等。作业已经给出选手的信息的json文件。就是学习怎样用matplotlib来画饼图而已。这个在网上pie接口和一些参数的调节就可以了。没什么难度。注意一点就是显示中文问题。这个也是小坑# 下载中文字体 !wget https://mydueros.cdn.bcebos.com/font/simhei.ttf # 将字体文件复制到matplotlib字体路径 !cp simhei.ttf /opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/matplotlib/mpl-data/fonts/ttf/ # 一般只需要将字体文件复制到系统字体目录下即可但是在aistudio上该路径没有写权限所以此方法不能用 # !cp simhei.ttf /usr/share/fonts/ # 创建系统字体文件路径 !mkdir .fonts # 复制文件到该路径 !cp simhei.ttf .fonts/ !rm -rf .cache/matplotlib 还有下面这一句。 # 设置显示中文 plt.rcParams[font.sans-serif] [SimHei] # 指定默认字体核心代码如下参数调节就百度一下就可以。df pd.read_json(data/data31557/20200422.json) weight df[weight] def split_(x):value x.split(kg)[0]return float(value) df[weight_value] weight.apply(lambda x:split_( x) ) df[weight_value] pd.cut(df[weight_value], [0,45,50,55,200]) counts pd.value_counts(df[weight_value]) values counts.values labels [45kg, 45~50kg,50~55kg,55kg] explode (0,0.1,0,0) # 画图 # 设置显示中文 plt.rcParams[font.sans-serif] [SimHei] # 指定默认字体 plt.figure(figsize(8,8)) patches,l_text,p_text plt.pie(xvalues, labelslabels, explodeexplode, autopct%1.1f%%,shadowTrue, startangle90, ) for t in l_text:t.set_size(25) for t in p_text:t.set_size(25) plt.axis(equal) plt.title(《青春有你2》选手体重分布,fontsize 24,y-0.1) plt.show()【Day4-《青春有你2》选手识别】这天作业有点人工智能的味道。因为是做图像分类把5个小姐姐的图片准确预测名字出来如果没有看过青春有你估计你会脸盲。因为有一步就是要爬取对应的人的图片。作为训练集。网上一搜你发现每个人都差不多样子。。。。好难清洗数据。。。。。。。。。。。。爬取图片这一步我没有做。。。。。我是用群里面的大神爬取的图片。大概500张。做深度学习最重要的就是数据如果你的数据数量不够好和不够多的话。做出来的效果会非常差的。或者容易出现过拟合。还有数据中每一类的数据数量不均衡也不行。所有我在500张的图片上做了数据增强每一张都用了水平翻转来增加数据。因为用了飞桨的PaddleHub工具。主要就是制作标签和训练数据路径的txt文档。import random name {anqi:3, yushuxin:0, xujiaqi:1, wangchengxuan:4, zhaoxiaotang:2} import os train_img_path list() val_img_path list() for d in os.listdir(dataset):if d in name.keys():img_path list()index name[d]for file in os.listdir(os.path.join(dataset,d)):if file ! .ipynb_checkpoints:string d / file str(index) nimg_path.append(string)length len(img_path)val_img_list random.sample(img_path, int(len(img_path)*0.2)) for i in img_path:if i in val_img_list:val_img_path.append(i)else :train_img_path.append(i) random.shuffle(train_img_path) random.shuffle(val_img_path) #print(train_img_path) with open(dataset/train_list.txt, w) as f:for l in train_img_path:f.write(l)with open(dataset/validate_list.txt, w) as f:for l in val_img_path:f.write(l)其他的就交给paddlehub就可以了。如果训练期间有什么报错一定要考虑就是你的txt文档制作有问题就是图片路径问题就是标签问题。99.99999%都是这个问题。这里展示预测结果【Day5-综合大作业】顾名思义这天作业是大作业。。因为你要结合之前所学习的知识。例如用爬虫来爬取爱奇艺青春有你2视频下的评论再要做分词词频可视化词云可视化。这里最重要的就是爬取评论这次爬取的评论的动态网页。动态不像之前的静态爬取。可以直接获取对应的html标签。动态它加载的是js文件。这样就要通过特殊工具来处理了。 首先利用Fiddler来抓包观察评论在动态加载的时候网站是怎样变换的。通过软件发现每次加载评论都会出现一个新js文件。不用说了点看看明显能看到里面的内容就评论好了完成一半了不过这里的评论只是显示20条下一次的20次又怎样得去。好找规律分部加载三次评论看三次评论的网址是怎样变化的可以发现三个网址不一样的地方就是last_id的不同。还有网址最后面的网址那一串不同。到这一步肯定想能不能通过上一个js文件中找到下一个js文件的id。一找就找到了这样就好办那后面那串数字呢发现是找不到的那怎么办。试试把它删除掉再输入到游览器发现完全不影响。那直接删除掉罗。所以现在分析后获取网址。正常安爬取就可以了def get_content(lastId):base_url https://sns-comment.iqiyi.com/v3/comment/get_comments.action?agent_type118agent_version9.11.5authcookienullbusiness_type17content_id15068699100hot_size0last_idlast_url pagepage_size20typestimecallbackjsonpurl base_url str(lastId) last_urlhtmlurllib.request.urlopen(url).read().decode(utf-8,ignore) return html#从源码中获取评论的数据 def get_comment(html): patcontent:(.*?) rst re.compile(pat,re.S).findall(html) return rst#获取下个id def get_id(html):pat id:(.*?)rst re.compile(pat,re.S).findall(html)return rst if __name__ __main__:total 0first_id 240947941221htmlget_content(first_id)with open(comment.txt,w) as f:while True:commentlistget_comment(html) for j in range(1,len(commentlist)): f.write(str(commentlist[j]) n) total 1#获取下一轮刷新页ID if total 1100:break lastIdget_id(html)[-1] htmlget_content(lastId)print(【完成】 总共爬取了{}条评论.format(total))到后面就去掉某些评论的脏数据。例如表情等。用正则化去除。#去除文本中特殊字符 def clear_special_char(content):正则处理特殊字符参数 content:原文本return: 清除后的文本s re.sub(r/?(.?)|nbsp;|t/r*,, content)s re.sub(rn,, s)s re.sub(r*, *, s)s re.sub([^u4E00-u9FA5A-Za-z0-9 ],,s)a re.sub([001002003004005006007x08x09x0ax0bx0cx0dx0ex0fx10x11x12x13x14x15x16x17x18x19x1a], , s)s re.sub({a—zA-Z},,s)s re.sub(^d(.d)?$,,s)return s 到分词和停用词用jieba这个模块。我也是第一次用百度了一下def fenci(text):利用jieba进行分词参数 text:需要分词的句子或文本return分词结果jieba.load_userdict(add_words.txt)seg jieba.lcut(text,cut_allFalse)return segdef stopwordslist(filepath):创建停用词表参数 file_path:停用词文本路径return停用词liststopwords [line.strip() for line in open(filepath, r, encodingutf-8).readlines()]return stopwords 然后根据词频制作柱状图def drawcounts(counts,num):绘制词频统计表参数 counts: 词频统计结果 num:绘制topNreturnnonex_aixs []y_aixs []c_order sorted(counts.items(), keylambda x:x[1],reverseTrue)#print(c_order)#通过高频词的数量进行排序for c in c_order[:num]:x_aixs.append(c[0])y_aixs.append(c[1])matplotlib.rcParams[font.family] [SimHei] # 指定默认字体matplotlib.rcParams[axes.unicode_minus] False plt.figure(figsize(12,8))plt.bar(x_aixs, y_aixs)plt.title ( 词频统计)plt.show( ) 然后就制作词云wordcloud的库的参数怎样调。。。百度就可以。。。。def drawcloud(word_f):根据词频绘制词云图参数 word_f:统计出的词频结果returnnonecloud_mask np.array(Image.open(cloud.png))st set([东西,这是])wc WordCloud(font_pathfonts/simhei.ttf, # 设置字体maskcloud_mask,background_colorwhite, # 背景颜色max_words200, # 词云显示的最大词数max_font_size80, # 字体最大值min_font_size10, #字体最小值random_state42, #随机数collocationsFalse, #避免重复单词stopwordsst,relative_scaling0.3,width400,margin10, #图像宽高字间距需要配合下面的plt.figure(dpixx)放缩才有效)wc.fit_words(word_f)wc.to_file(pic.png)最后就是用paddlehub来内容审核。这个直接查看官方文档。没啥说的。。。。。。def text_detection(text,file_path):使用hub对评论进行内容分析return分析结果porn_detection_lstm hub.Module(nameporn_detection_lstm)test_text list()with open(chean_comment.txt,r) as f:for line in f:if len(line) 1:continueelse:test_text.append(line)input_dict {text: test_text}results porn_detection_lstm.detection(datainput_dict,use_gpuTrue, batch_size1)for index, result in enumerate(results):if result[porn_detection_key] porn:print(result[text], :, result[porn_probs])好了。经历7天的训练营终于结束。 之前一直关注深度学习。爬虫和词云只是之前在学习python的时候稍微搞了一下都忘记。 通过这个课可以让我重温和学习爬虫特别爬动态的网站。我都是现做现学。 多谢这次训练营。多谢各位老师多谢群里面的小伙伴。
http://www.pierceye.com/news/523639/

相关文章:

  • 信息发布平台建站网站服务器天付
  • 免费做网站方法北京公司排名seo
  • 网站备案登记表晋城市建设局 网站
  • 网站备案会检查空间运营策划
  • 关于做网站建筑人力网
  • 网站开发培训合肥企业解决方案工作组
  • 怎么看待网站开发做网站好赚钱
  • 网站开发工作方案建设网站用什么软件排版
  • 网站建设耂首先金手指建设一个电商网站需要多少钱
  • 网站建设需注意的企业网站建设好的例子
  • 30岁做网站运营优秀的html5网站
  • 专门做眼镜的网站国内重大新闻事件2021年10月
  • 具有价值的网站制作菜单宣传网站怎么做的
  • 做网站 博客信息网站开发网络公司
  • 网站建设有哪些荣誉做响应式网站好不好
  • 精品资料网站网站建立
  • 网站开发印花税营销咨询
  • 马鞍山建设集团有限公司网站找工程项目上哪个平台好呢
  • 网站建设发货流程图电子商务是什么
  • 与有权重网站做友链软件开发可以做网站么
  • html网站开发代码专业的网站开发团队
  • 聚美优品的网站建设状况wordpress 微商城
  • 网络营销型网站律师做推广的网站
  • 网站建设公司排行济南网页制作设计营销
  • 网站功能建设与栏目划分wordpress 系统需求
  • 做网络推广要做网站吗wordpress中对视频排序
  • 三合一网站怎么建立如何做网站规范
  • 浙江网站改版设计公司网站建设实训目的
  • 建设网站装配式建筑楼房东莞网站建设php方案
  • 宜昌网站制作公司排名眉山招聘网站建设