当前位置: 首页 > news >正文

相册管理网站模板蔚县网站建设wl17581

相册管理网站模板,蔚县网站建设wl17581,wordpress页面构建器中文,会员管理系统登录文章目录2.相似度3.正则化3.1 L13.2 过拟合和欠拟合3.2.1 dropout3.3 欠拟合4. 激活函数4.1 sigmoid5.Bert5.1 Bert原版5.1.2 bert的训练5.2改进5.2.1缺点改进5.2.2任务改进5.3 参数量5.3 transformer5.3.1 多头注意力机制6.搜索6.1pagerank6.2 文本匹配7.神经网络基础7.1Norm7… 文章目录2.相似度3.正则化3.1 L13.2 过拟合和欠拟合3.2.1 dropout3.3 欠拟合4. 激活函数4.1 sigmoid5.Bert5.1 Bert原版5.1.2 bert的训练5.2改进5.2.1缺点改进5.2.2任务改进5.3 参数量5.3 transformer5.3.1 多头注意力机制6.搜索6.1pagerank6.2 文本匹配7.神经网络基础7.1Norm7.2 LSTM7.2.1结构7.2.2公式7.2.3 计算参数7.2.4 why解决了梯度消失/梯度消失7.2.5初始化方法,免于梯度消失7.3 归一化7.4 optim1.1 随机梯度下降8.常见函数8.1 softmaxsoftmax8.2损失函数8.2.1交叉熵和平方损失8.2.2交叉熵是怎么来的8.2.3分类的损失函数8.2.4 交叉熵的梯度8.2.5 BP8.2.6 KL散度9.word2vec10.训练10.1如何调整学习率11.python语言基础11.1 迭代器和生成器11.2 垃圾回收机制12 sql12.1 阿里的留存量问题13. 评价指标13.1 F1,P,R,AUC13.2 验证集recall和p都高测试集recall和auc没下降prec下降很厉害14 . 算法题14.1n*m的01矩阵做q次翻转0-1,1-0每次翻转后输出行内最长的1序列14.2 .二叉树每个节点为原点有一个左子树集合将每个集合的节点向前平移n格输出层次遍历15. 智力题16 机器学习16.1 决策树16.1.1 分类树16.1.1.1 ID3信息增益划分16.1.1.2 C4.5增益率16.1.1.3 CART16.1.2 回归树16.1.2.1 提升树GBDT提升树基础上的改进16.2 线性回归16.3 word2vec16.3.1 negative sampling16.4 处理过拟合17. 任务17.1 ner序列标注17.1.1 边界错误2.相似度 https://blog.csdn.net/ctwy291314/article/details/81667288 3.正则化 L1: 菱形 L2: 圆形 趋于0的概率大小 L0Lp(p~(0,1))L1L2 L0太理想了 在实际应用中由于L0范数本身不容易有一个好的数学表示形式给出上面问题的形式化表示是一个很难的问题故被人认为是一个NP难问题。所以在实际情况中L0的最优问题会被放宽到L1或L2下的最优化。 L1–参数稀疏特征选择 原因一有尖最小值容易出现在坐标轴上原因2 L1是拉普拉斯分布更尖锐L2则是高斯分布比L1平缓所以L1更容易收敛到0的点*原因3L1是L0的凸优化之类的。效果就是让w往0靠使网络中的权重尽可能为0也就相当于减小了网络复杂度防止过拟合。 L2:平滑 经变化后w前面系数为 1−ηλ/n 由于η、λ、n都是正的。所以 1−ηλ/n小于1它的效果是减小w这也就是权重衰减weight decay的由来 3.1 L1 L1不可导的时候该怎么办 当损失函数不可导,梯度下降不再有效,可以使用坐标轴下降法,梯度下降是沿着当前点的负梯度方向进行参数更新,坐标轴下降法是沿着坐标轴的方向,假设有m个特征个数,坐标轴下降法进参数更新的时候,先固定m-1个值,然后再求另外一个的局部最优解,从而避免损失函数不可导问题。使用Proximal Algorithm对L1进行求解,此方法是去优化损失函数上界结果。 3.2 过拟合和欠拟合 过拟合随着训练过程的进行模型复杂度在training data上的error渐渐减小。可是在验证集上的error却反而渐渐增大——由于训练出来的网络过拟合了训练集对训练集以外的数据却不work。 1.正则化RegularizationL1和L2 2.数据增强Data augmentation也就是增加训练数据样本清洗噪声 将原始图片旋转一个小角度 加入随机噪声 一些有弹性的畸变elastic distortions论文《Best practices for convolutional neural networks applied to visual document analysis》对MNIST做了各种变种扩增。 截取crop原始图片的一部分 3.Dropout 在dropout部分 我们已经解释过 之所以dropout可以抑制overfitting, 是因为在训练阶段 我们引入了 随机性(随机cancel一些Neuron)减少网络的匹配度, 在测试阶段 我们去除掉随机性 并通过期望的方式marginalize随机影响。 在BatchNormalization中 训练阶段 我们随机选取了Batch进行Normalization, 并计算running mean等 在测试阶段 应用running_mean这些训练参数来进行整体Normalization 本质上是 在Marginalize训练阶段的随机性。 因此 BatchNormalization也提供了 Regularization的作用 实际应用中证明 NB在防止过拟合方面确实也有相当好的表现。 4…early stopping 3.2.1 dropout Dropout 在dropout部分 我们已经解释过 之所以dropout可以抑制overfitting, 是因为在训练阶段 我们引入了 随机性(随机cancel一些Neuron)减少网络的匹配度, 在测试阶段 我们去除掉随机性 并通过期望的方式marginalize随机影响。 在BatchNormalization中 训练阶段 我们随机选取了Batch进行Normalization, 并计算running mean等 在测试阶段 应用running_mean这些训练参数来进行整体Normalization 本质上是 在Marginalize训练阶段的随机性。 因此 BatchNormalization也提供了 Regularization的作用 实际应用中证明 NB在防止过拟合方面确实也有相当好的表现。 3.3 欠拟合 1添加其他特征项有时候我们模型出现欠拟合的时候是因为特征项不够导致的可以添加其他特征项来很好地解决。例如“组合”、“泛化”、“相关性”三类特征是特征添加的重要手段无论在什么场景都可以照葫芦画瓢总会得到意想不到的效果。除上面的特征之外“上下文特征”、“平台特征”等等都可以作为特征添加的首选项。 2添加多项式特征这个在机器学习算法里面用的很普遍例如将线性模型通过添加二次项或者三次项使模型泛化能力更强。例如上面的图片的例子。 3减少正则化参数正则化的目的是用来防止过拟合的但是现在模型出现了欠拟合则需要减少正则化参数。 4. 激活函数 4.1 sigmoid sigmoid函数特性 二分类为什么用sigmoid: 二分类满足伯努利假设sigmoid可由伯努利假设推出 5.Bert Bert 是个预训练语言模型基本结构取自transformer的编码层基本的bert叠加了12个transformer编码层但是与transformer不同的是在输入层不仅有token embedding,position embedding,还有segment embedding(因为bert允许输入两个句子以sep间隔以segment区分position encoding:transformer使用sin,cos; position encoding 使 PE 能够适应比训练集里面所有句子更长的句子假设训练集里面最长的句子是有 20 个单词突然来了一个长度为 21 的句子则使用公式计算的方法可以计算出第 21 位的 Embedding。可以让模型容易地计算出相对位置对于固定长度的间距 kPE(posk) 可以用 PE(pos) 计算得到。因为 Sin(AB) Sin(A)Cos(B) Cos(A)Sin(B), Cos(AB) Cos(A)Cos(B) - Sin(A)Sin(B)。人为提升多样性频率不同 multi-head self-attention,K,Q,VWX attention比lstm好在哪里 attention会记住重要的不会因为距离太远而遗忘lstm会遗忘有遗忘门attention可并行 add:残差xmh-self-attention(x)norm:layernorm:使得方差均值相同每层输入 yx−E[x]Var[x]ϵ∗γβy \frac{x - \mathrm{E}[x]}{ \sqrt{\mathrm{Var}[x] \epsilon}} * \gamma \betayVar[x]ϵ​x−E[x]​∗γβ torch,matmul( torch.softmax( torch.matmul(q, k.permute(0, 1, 3, 2)) / sqrt(dk) ), v).permute(0, 2, 1, 3).reshape(batch, n, self.dim_v) 5.1 Bert原版 XLNET BERT在第一个预训练阶段假设句子中多个单词被Mask掉这些被Mask掉的单词之间没有任何关系是条件独立的然而有时候这些单词之间是有关系的比如”New York is a city”假设我们Mask住”New”和”York”两个词那么给定”is a city”的条件下”New”和”York”并不独立因为”New York”是一个实体看到”New”则后面出现”York”的概率要比看到”Old”后面出现”York”概率要大得多。 但是需要注意的是这个问题并不是什么大问题甚至可以说对最后的结果并没有多大的影响因为本身BERT预训练的语料就是海量的(动辄几十个G)所以如果训练数据足够大其实不靠当前这个例子靠其它例子也能弥补被Mask单词直接的相互关系问题因为总有其它例子能够学会这些单词的相互依赖关系。 BERT的在预训练时会出现特殊的[MASK]但是它在下游的fine-tune中不会出现这就造成了预训练和微调之间的不匹配微调不出现[MASK]这个标记模型好像就没有了着力点、不知从哪入手。所以只将80%的替换为[mask]但这也只是缓解、不能解决。 相较于传统语言模型Bert的每批次训练数据中只有 15% 的标记被预测这导致模型需要更多的训练步骤来收敛。 另外还有一个缺点是BERT在分词后做[MASK]会产生的一个问题为了解决OOV的问题我们通常会把一个词切分成更细粒度的WordPiece。BERT在Pretraining的时候是随机Mask这些WordPiece的这就可能出现只Mask一个词的一部分的情况 中文上 bert仅仅基于attention没有考虑词性、对上下文信息也仅仅用了embedding仅仅用语义信息会出现错判。Bert对各个词的权重是一样的不能突出关键词。bert对整句话只抽取一个主旨像‘我做了头发我还能买新衣服’这样的句子就判断不出来了。 在训练中融入词性、句法信息、停用词抽取多个主旨以改善这个现象 5.1.2 bert的训练 mask掉一部分然后去预测这部分词。判断两个句子是否相连 5.2改进 5.2.1缺点改进 中文 百度ernie bert学不到实体或短语信息mask实体 清华ernie 引入词汇、句法和知识信息entity embedding作为ERNIE模型的输入知识图谱中的mask实体并从知识图谱中找实体对齐 xlnethttps://blog.csdn.net/u012526436/article/details/93196139 mask:finetune和训练时不一致mask之间的顺序不考虑排列组合所有顺序 alberthttps://blog.csdn.net/chaojianmo/article/details/104061718/ 因式分解embeddingEH1H2跨层参数共享fc/multihead\NSP-SOP:同个文档里负采样避免学习到主题 5.2.2任务改进 MASS:Masked Sequence to Sequence Pre-training for Language Generation encoder-att-decoder:mask encoder的部分词decoder出来这些词 UNILM:UNIfied pre-trained Language Model 3种mask mask后文mask seq2–学习生成仅mask padding 5.3 参数量 https://zhuanlan.zhihu.com/p/144582114 5.3 transformer 5.3.1 多头注意力机制 qtorch.matmul(W_q, x) ktorch.matmul(W_k,x) vtorch.matmul(W_v,x) qq.reshape(batch,n,head,dk).permute(0,2,1,3) kk.reshape(batch,n,head,dk).permute(0,2,1,3) vv.reshape(batch,n,head,dk).permute(0,2,1,3)# batch,head,n,dk torch.matmul( torch.softmax(torch.matmul(q, k.permute(0, 1, 3, 2)) / sqrt(dk) ), v).permute(0, 2, 1, 3).reshape(batch, n, self.dim_v)6.搜索 6.1pagerank https://blog.csdn.net/csdn_lzw/article/details/79733962 核心思想认为万维网中一个页面的重要性取决于指向它的其他页面的数量和质量。 如果一个网页被很多其他网页链接到的话说明这个网页比较重要也就是PageRank值会相对较高如果一个PageRank值很高的网页链接到一个其他的网页那么被链接到的网页的PageRank值会相应地因此而提高 问题 终止点问题有些网站没有出边迭代后所有的pagerank-0陷阱有的节点存在指向自己的路径多次迭代后他自己为1其他为0 解决 遇见以上情况关闭当前随机调到其他网址上 6.2 文本匹配 https://blog.csdn.net/ling620/article/details/95468908 传统文本匹配 词汇相似度词汇层面词义局限结构局限知识局限 主题模型–词汇分布 LSA:SVDPLSA:概率LDA: 词词的分布代表主题不同主题的词的分布不同文章的含义同一主题在不同文章中出现的概率不同确定好主题与词汇的分布、主题与文章的分布 随机生成文章的各个主题比例再根据主题生成词–这是LDA的文章生成过程。忽略了词的顺序所以不用来生成做主题分析 主题模型可做用户画像 深层语义 表现型word embedding,之类的得到向量交互型判定两个句子的相似度 应用 短-短得到两个文本的额向量求相似度余弦欧式短-长获得长的主题模型求该主题模型生成短文本的概率为其相似度长-长分别求两者的主题模型计算两个多项式分布之间的距离作为其相似度海林哥距离 7.神经网络基础 7.1Norm 原因 1.网络的各层输入数据的分布则会不断变化。 2.会逐渐使得激活函数趋于饱和导致梯度消失 https://zhuanlan.zhihu.com/p/74516930 https://www.cnblogs.com/shuimuqingyang/p/14007260.html (bs,seq_len,embedding_size) batchnorm:bs layernorm:embedding_size(神经元 BatchNorm why原始数据分布不一致经过每层计算后分布也不一致why不每层直接变为均值0方差1的分布学不到数据特征–所以之后再加上可训练参数变为另一个yx-均值0方差1的x1-y训练阶段 滑动平均值、方差x’ (1-momentum)x momentumx’’ 测试阶段 batchNorm是在batch上对NHW做归一化对小batchsize效果不好 layerNorm在通道方向上对CHW归一化主要对RNN作用明显instanceNorm在图像像素上对HW做归一化用在风格化迁移 GroupNorm将channel分组然后再做归一化SwitchableNorm是将BN、LN、IN结合赋予权重让网络自己去学习归一化层应该使用什么方法 7.2 LSTM 7.2.1结构 结构 7.2.2公式 公式 7.2.3 计算参数 计算参数 7.2.4 why解决了梯度消失/梯度消失 没有解决 、多条链路梯度消失得原因Sigmoid函数有一个缺点当x较大或较小时导数接近0或者1并且Sigmoid函数导数的最大值是0.25 链式法则求导时多个导数同时大于或小于1 解决 好的参数初始化方式:HE非饱和的激活函数relu,导数为1残差/多路一条路挂了其他仍可走BATCH NORMAL梯度消失、内部协方差位移分布变化梯度裁剪更快的优化器正则化 7.2.5初始化方法,免于梯度消失 https://blog.csdn.net/xxy0118/article/details/84333635 https://zhuanlan.zhihu.com/p/40175178 Xavier:输入和输出可以保持方差相同的正态分布,适用于tanh He:正向传播时状态值的方差保持不变反向传播时关于激活值的梯度的方差保持不变。 为什么weights初始化要非对称 如果对称初始化假设weights全是1则对于每个神经元的输出结果相同经历过BP反向传播后weights的各个位置得到的是相同的更新。 因此无论网络训练多少轮对于每一层中的各个神经元weights都是相同的无法学习提取到不同的特征。 为什么weights初始化不能全为0 原因同上。 为什么初始化值不能太大 对于sigmoid、tanh激活函数初始化值太大使得流入激活函数的值过大造成饱和现象当反相传播时会使得梯度极小导致梯度弥散。ReLU函数不受此影响 为什么初始化值不能太小 初始化太小时经过多层网络输出值变得极小在反向传播时也会使得梯度极小导致梯度弥散。ReLU函数也受此影响 7.3 归一化 什么不需要归一化决策树 归一化的用处 1.使不同量纲的特征处于同一数值量级减少方差大的特征的影响使模型更准确。 2.加快学习算法的收敛速度 归一化把数据变成()或者1,1之间的小数。主要是为了数据处理方便提出来的把数据映射到01范围之内处理更加便捷快速。把有量纲表达式变成无量纲表达式便于不同单位或量级的指标能够进行比较和加权。归一化是一种简化计算的方式即将有量纲的表达式经过变换化为无量纲的表达式成为纯量。   标准化在机器学习中我们可能要处理不同种类的资料例如音讯和图片上的像素值这些资料可能是高维度的资料标准化后会使每个特征中的数值平均变为0(将每个特征的值都减掉原始资料中该特征的平均)、标准差变为1这个方法被广泛的使用在许多机器学习算法中(例如支持向量机、逻辑回归和类神经网络)。   中心化平均值为0对标准差无要求 作者brucep3 链接https://www.jianshu.com/p/95a8f035c86c 来源简书 著作权归作者所有。商业转载请联系作者获得授权非商业转载请注明出处。 7.4 optim SGD,Momentum,Adagard,Adam原理 SGD为随机梯度下降,每一次迭代计算数据集的mini-batch、batch、单个的梯度,然后对参数进行更新。随机应该是指单个数据的梯度 Momentum参考了物理中动量的概念,前几次的梯度也会参与到当前的计算中,但是前几轮的梯度叠加在当前计算中会有一定的衰减。 Adagard在训练的过程中可以自动变更学习的速率,设置一个全局的学习率,而实际的学习率与以往的参数模和的开方成反比。 Adam利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率,在经过偏置的校正后,每一次迭代后的学习率都有个确定的范围,使得参数较为平稳。 1.1 随机梯度下降 xx-lr*g随机每次算一个数据的梯度mini-batch每次算一批数据的梯度平均、求和 optim 这里调整的是梯度–但tf是调整的学习率 不会因为梯度很大而导致学习率步长也变得很大参数的值相对比较稳定。 8.常见函数 8.1 softmax word2vec里因为分母涉及整个词典因此使用negative sample和层次softmax softmax 8.2损失函数 8.2.1交叉熵和平方损失 交叉熵平方损失线性回归逻辑回归极大似然估计交叉熵:分类分类why不用平方损失 平方差的函数是凸函数分类器用了sigmoid,不是凸函数不利于优化 直观上对特定的分类问题平方差的损失有上限(所有标签都错损失值是一个有效值)但交叉熵则可以用整个非负域来反映优化程度的程度。 但也可以用。 从本质上看平方差的意义和交叉熵的意义不一样 概率理解上平方损失函数意味着模型的输出是以预测值为均值的高斯分布损失函数是在这个预测分布下真实值的似然度softmax损失意味着真实标签的似然度。在分类问题下大部分时候误差并不服从高斯分布。分类问题中的标签是没有连续的概念的。1-hot作为标签的一种表达方式每个标签之间的距离也是没有实际意义的所以预测值和标签两个向量之间的平方差这个值不能反应分类这个问题的优化程度。还有个原因应该是softmax带来的vanishing gradient吧。预测值离标签越远有可能的梯度越小。李龙说的non-convex问题应该是一种体现形式 作者北野寺僧人 链接https://www.zhihu.com/question/319865092/answer/717476767 来源知乎 著作权归作者所有。商业转载请联系作者获得授权非商业转载请注明出处。 下面这个解释有个问题y*f会大于1吗 8.2.2交叉熵是怎么来的 满足伯努利分布所以用sigmoid 可从伯努利分布推导出来https://zhuanlan.zhihu.com/p/360717173 来自KL散度https://blog.csdn.net/tsyccnh/article/details/79163834 KL散度用以描述两个分布的差异真实分布和预测分布 KLH§交叉熵 DKL(p∣∣q)∑i1np(xi)log(p(xi))−∑i1np(xi)log(q(xi))−H(p(x))−∑i1np(xi)log(q(xi))D_{KL}(p||q) \\ \sum_{i1}^np(x_i)log(p(x_i))-\sum_{i1}^np(x_i)log(q(x_i))\\ -H(p(x))-\sum_{i1}^np(x_i)log(q(x_i))DKL​(p∣∣q)i1∑n​p(xi​)log(p(xi​))−i1∑n​p(xi​)log(q(xi​))−H(p(x))−i1∑n​p(xi​)log(q(xi​)) 8.2.3分类的损失函数 hinge损失 交叉熵损失 0-1损失 感知器损失 8.2.4 交叉熵的梯度 https://blog.csdn.net/qian99/article/details/78046329 ai-yi在这里插入图片描述 8.2.5 BP https://blog.csdn.net/u010916338/article/details/83310442 8.2.6 KL散度 9.word2vec cbow.,skip-gram层次softmax哈希曼树频率高的路径短负采样这里还有一种解决问题的思路我们最后的softmax分出来的类是整个词袋的大小那么是不是可以把词袋大小减小因为有些出现概率低的词我们根本可以不考虑。这就是负采样的核心思想。 那么怎么选取频率较高的词构成最后softmax要分的类呢 只计算正例和负例的loss 负例的选择 https://www.cnblogs.com/pinard/p/7249903.html 作者吴祺育的笔记 链接https://www.jianshu.com/p/d8bfaae28fa9 来源简书 著作权归作者所有。商业转载请联系作者获得授权非商业转载请注明出处。 https://www.jianshu.com/p/d8bfaae28fa9 10.训练 10.1如何调整学习率 11.python语言基础 11.1 迭代器和生成器 迭代器一次性取出全部生成器yield 一次取一部分然后暂停遇见send和next再继续一次只取一部分对内存友好。 11.2 垃圾回收机制 https://blog.csdn.net/xiongchengluo1129/article/details/80462651 计数 当指向该对象的内存的引用计数器为0的时候该内存将会被Python虚拟机销毁缺点无法解决循环引用的问题。A和B相互引用而再没有外部引用A与B中的任何一个它们的引用计数都为1但显然应该被回收。 标记-清除 第一阶段是标记阶段GC会把所有的『活动对象』打上标记第二阶段是把那些没有标记的对象『非活动对象』进行回收。如何判断 对象之间通过引用指针连在一起构成一个有向图对象构成这个有向图的节点而引用关系构成这个有向图的边。从根对象root object出发沿着有向边遍历对象可达的reachable对象标记为活动对象不可达的对象就是要被清除的非活动对象45。根对象就是全局变量、调用栈、寄存器。 GC 对于程序存在一定比例的内存块的生存周期比较短而剩下的内存块生存周期会比较长甚至会从程序开始一直持续到程序结束。生存期较短对象的比例通常在 80%90% 之间这种思想简单点说就是对象存在时间越长越可能不是垃圾应该越少去收集。这样在执行标记-清除算法时可以有效减小遍历的对象数从而提高垃圾回收的速度。 12 sql 12.1 阿里的留存量问题 电话讲了下思路 table A: userid | dt userid:用户iddt:上次登录时间登录覆盖,2021-04-13 留存率 昨天登录100人今天这100人里只有70人登录留存率70% 解决方法 备份昨日的表–临时表每日计算留存率 select *,concat(round(100*count2/count1,2),%) 留存率 from(SELECTA.dt,count(distinct A.userid) count1,count(distinct B.userid) count2FROMtableA AS ALEFT JOINtableA_copy1 AS BON A.userid B.useridandDATEDIFF(A.dt,B.dt)group byA.dt) https://zhuanlan.zhihu.com/p/123292172 13. 评价指标 13.1 F1,P,R,AUC https://zhuanlan.zhihu.com/p/69771204 acc(TPTN)/(PN) 错误率(FPFN)/(PN) precisionTP/(TPFP)TP/len(predict) recallTP/(TPFN)TP/len(gold)sensitivity 真正例率TPR是 TP/PTP/len(gold)TP/(TPFN)recall 假正例率FPRFP/NFP/(FPTN) AUCROC的面积面积大模型泛化能力强 ROC 如何画roc 调整阈值画的 13.2 验证集recall和p都高测试集recall和auc没下降prec下降很厉害 原因可能是阈值太低了但序列标注那种有阈值吗argmax的 可能最高的那个概率也很低所以矮子里拔高个可以让设置如果最大值很小的话就不要了 阈值低p高r低阈值高p低r高还有可能是没学好负例。 14 . 算法题 14.1n*m的01矩阵做q次翻转0-1,1-0每次翻转后输出行内最长的1序列 感觉题目理解有点问题 输入 n5 m4 q5 矩阵 0 1 1 0 1 0 0 1 0 1 1 0 1 0 0 1 0 0 0 0 1 1 1 4 3 1 4 2 4 3 14.2 .二叉树每个节点为原点有一个左子树集合将每个集合的节点向前平移n格输出层次遍历 输入 2 7 1 7 2 输出 2 4 6 1 5 3 7 4 1 3 2 5 6 7 .二叉树每个节点为原点有一个左子树集合将每个集合的节点向前平移n格输出层次遍历 他怎么说怎么加或者做数学题……数学题应该O(n),但边界怎么处理边界还是要算一遍 res list(range(1,71)) move2 flag[0]*7 for n in range(7):if(flag[n]!1):nownr[now]while(2*now17):now2*now1r.append(now)flag[now]1# res[r[len(r)]]if(len(r)1):for i in range(len(r)):now i-moveres[r[now]] r[i]1print(r)print(res)flag[n]1 15. 智力题 https://www.nowcoder.com/discuss/tiny/694863?channel666source_idfeed_index_nctrackfromIframetrue 16 机器学习 16.1 决策树 https://blog.csdn.net/qq_22194315/article/details/83752321 16.1.1 分类树 loss:信息增益、增益率、gini_index 16.1.1.1 ID3信息增益划分 D:数据集pk:数据集中第k类占比 信息增益划分前的熵-划分后 划分后熵越低纯度越高划分前一定信息增益越大越好 缺点它倾向于选取取值数目多的属性因为这样的属性计算出来的信息增益最大但往往会导致泛化能力变弱。比如样本集有100个样本然后样本有一个属性“编号”100个样本的编号各不相同如果按编号属性划分则对新样本的预测很不友好因为编号对label的影响太小了。 基于此下面就有C4.5的最优属性选取方式就减轻了信息增益的倾向带来的不足。 16.1.1.2 C4.5增益率 V(a)称为属性a的固有值如果属性a的取值数目过多那么IV(a)会变得很大那么增益率就会变得很小。但是C4.5并不是单纯地选取增益率最大的属性作为最优属性而是先比较信息增益也就是说我们在信息增益高于平均水平的属性集合中再选取增益率最大的属性。 16.1.1.3 CART 16.1.2 回归树 16.1.2.1 提升树 损失函数这里是MSE CART回归树 每次找使得loss最小的属性j和划分s,得到回归树计算残差得到新的数据集x, r(r yi- predict_i) 首先遍历数据集的属性集对于每一个属性j我们优化上述目标。由于属性j有很多取值那么从这些取值中先计算划分点一般是相邻两个值的中间数作为划分点这样我们的到划分点s的集合。举个例子假如j有10个取值那么先从小到大排序然后可以计算10个取值中的划分点相邻两个取值的平均值作为一个划分点我们就可以得到9个划分点。上述优化目标也就是遍历每一个可能的j和s寻找使得上述目标最小的js来划分当前结点。其中c1、c2是各分支的预测label一般取分支结点的数据集的均值R1、R2是各分支的样本子集。注意这里是用CART回归树举例对于结点的划分只能产生两个分支。划分之后递归地对子结点利用上述优化目标进行划分直至到达递归边界一般是限定叶子个数最大深度等。得到这样的回归树之后我们利用步骤©更新提升树的模型fm并再次计算残差又得到新的数据集xr继续拟合生成新的回归树直至迭代到M。 GBDT提升树基础上的改进 初始化 残差x与负梯度组合成新的数据集用回归树去拟合然后更新提升树的模型这就是GBDT。 16.2 线性回归 16.3 word2vec skip-gram ,cbow 16.3.1 negative sampling https://zhuanlan.zhihu.com/p/56106590 1.把常见的词组作为一个单词。 2.少采样常见的词 比如A the 词出现的越多越容易不容易被采样到 3.修改优化目标函数这个策略称之为“Negative Sampling负采样“使得每个训练样本只去更新模型中一小部分的weights。 出现越多的词越容易被更新 https://www.cnblogs.com/pinard/p/7243513.html 层次softmax 沿着霍夫曼树走 16.4 处理过拟合 https://www.jianshu.com/p/97aafe479fa1 数据增强Early stopping增加噪声简化网络结构Dropout贝叶斯方法正则化:L1,L2BN: batch normalization 这句话什么意思呢意思就是同样一个样本的输出不再仅仅取决于样本本身也取决于跟这个样本属于同一个mini-batch的其它样本。同一个样本跟不同的样本组成一个mini-batch它们的输出是不同的仅限于训练阶段在inference阶段是没有这种情况的。我把这个理解成一种数据增强同样一个样本在超平面上被拉扯每次拉扯的方向的大小均有不同。不同于数据增强的是这种拉扯是贯穿数据流过神经网络的整个过程的意味着神经网络每一层的输入都被数据增强处理了。 相比于Dropout、L1、L2正则化来说BN算法防止过拟合效果没那末明显。 17. 任务 17.1 ner序列标注 17.1.1 边界错误 增大边界错误的loss便捷预测错给更大的惩罚
http://www.pierceye.com/news/307407/

相关文章:

  • 青岛企业建设网站企业南宁网站开发建设
  • 网站备案是先做网站还是做完了备案效果好的手机网站建设
  • 做企业宣传网站沈阳妇科检查去哪个医院较好
  • 网站为什么维护wordpress 交易平台
  • 南京 电子商务网站5118数据分析平台官网
  • 试析企业网站建设模式建网站的网络公司
  • 内蒙古建设 招聘信息网站平台搭建
  • 做网站公司共有几处密码公司seo营销
  • 镇江网站制作费用广东华电建设股份有限公司网站
  • 西安知名的集团门户网站建设服务商潍坊网站开发asp培训
  • 网站服务器连接被重置为什么高德地图没有外国位置信息
  • 帝国cms 仿站 wordpress天津新亚太工程建设监理有限公司网站
  • 精品网站导航 做最好的导航网站建设数据库选择
  • 蓝杉网站建设公司贵阳网站建设公司排名
  • 苏州专业高端网站建设机构建网站公司下载快手
  • 中堂仿做网站个人网站设计论文道客巴巴
  • 怎么用ps做网站效果图24什么网站建设
  • 网站开发技术有网站建设方案 pdf
  • 网站建设教程浩森宇特福州医院网站建设公司
  • 怎样在网站上做超链接网站商城是用什么框架做的
  • 网站建设增城wordpress新文章类型
  • 广州市招投标中心官网上海网站关键词优化
  • 很多网站开发没有框架如何制作的长沙旅游景点大全排名
  • 云南网站推广的目的做动画的网站有哪些
  • 网站建设公司在哪里找资源模拟建设网站
  • 如何盗用网站模板哈尔滨公告
  • 管理咨询网站焦作专业做网站公司哪家好
  • 在国内做跨境电商怎么上外国网站网站不收录
  • 网站介绍ppt怎么做屏蔽网站ip
  • it公论 是建立在什么网站wordpress搬迁数据库连接失败