当前位置: 首页 > news >正文

智能建站开发如何帮人做网站赚钱

智能建站开发,如何帮人做网站赚钱,建设项目环保验收网站,中国建设银行官网站电话号码本文转载自公众号#xff1a;美团技术团队。 本文介绍了大众点评搜索核心排序层模型的演化之路#xff0c;包括结合知识图谱信息构建适合搜索场景的Listwise深度学习排序模型LambdaDNN以及特征工程实践和相关工具建设。1. 引言挑战与思路搜索是大众点评App上用户进行信息查… 本文转载自公众号美团技术团队。   本文介绍了大众点评搜索核心排序层模型的演化之路包括结合知识图谱信息构建适合搜索场景的Listwise深度学习排序模型LambdaDNN以及特征工程实践和相关工具建设。1. 引言挑战与思路搜索是大众点评App上用户进行信息查找的最大入口是连接用户和信息的重要纽带。而用户搜索的方式和场景非常多样并且由于对接业务种类多流量差异大为大众点评搜索下文简称点评搜索带来了巨大的挑战具体体现在如下几个方面意图多样用户查找的信息类型和方式多样。信息类型包括POI、榜单、UGC、攻略、达人等。以找店为例查找方式包括按距离、按热度、按菜品和按地理位置等多种方式。例如用户按照品牌进行搜索时大概率是需要寻找距离最近或者常去的某家分店但用户搜索菜品时会对菜品推荐人数更加敏感而距离因素会弱化。业务多样不同业务之间用户的使用频率、选择难度以及业务诉求均不一样。例如家装场景用户使用频次很低行为非常稀疏距离因素弱并且选择周期可能会很长而美食多为即时消费场景用户行为数据多距离敏感。用户类型多样不同的用户对价格、距离、口味以及偏好的类目之间差异很大搜索需要能深度挖掘到用户的各种偏好实现定制化的“千人千面”的搜索。LBS的搜索相比电商和通用搜索LBS的升维效应极大地增加了搜索场景的复杂性。例如对于旅游用户和常驻地用户来说前者在搜索美食的时候可能会更加关心当地的知名特色商户而对于距离相对不敏感。上述的各项特性叠加上时间、空间、场景等维度使得点评搜索面临比通用搜索引擎更加独特的挑战。而解决这些挑战的方法就需要升级NLPNatural Language Processing自然语言处理技术进行深度查询理解以及深度评价分析并依赖知识图谱技术和深度学习技术对搜索架构进行整体升级。在美团NLP中心以及大众点评搜索智能中心两个团队的紧密合作之下经过短短半年时间点评搜索核心KPI在高位基础上仍然大幅提升是过去一年半涨幅的六倍之多提前半年完成全年目标。基于知识图谱的搜索架构重塑美团NLP中心正在构建全世界最大的餐饮娱乐知识图谱——美团大脑相关信息请参见《美团大脑知识图谱的建模方法及其应用》。它充分挖掘关联各个场景数据用NLP技术让机器“阅读”用户公开评论理解用户在菜品、价格、服务、环境等方面的喜好构建人、店、商品、场景之间的知识关联从而形成一个“知识大脑”[1]。通过将知识图谱信息加入到搜索各个流程中我们对点评搜索的整体架构进行了升级重塑图1为点评搜索基于知识图谱搭建的5层搜索架构。本篇文章是“美团大脑”系列文章第二篇系列首篇文章请参见《美团餐饮娱乐知识图谱——美团大脑揭秘》主要介绍点评搜索5层架构中核心排序层的演变过程文章主要分为如下3个部分核心排序从传统机器学习模型到大规模深度学习模型的演进。搜索场景深度学习排序模型的特征工程实践。适用于搜索场景的深度学习Listwise排序算法——LambdaDNN。图1 基于知识图谱的点评搜索5层架构2. 排序模型探索与实践搜索排序问题在机器学习领域有一个单独的分支Learning to RankL2R。主要分类如下根据样本生成方法和Loss Function的不同L2R可以分为Pointwise、Pairwise、Listwise。按照模型结构划分可以分为线性排序模型、树模型、深度学习模型它们之间的组合GBDTLRDeepWide等。在排序模型方面点评搜索也经历了业界比较普遍的迭代过程从早期的线性模型LR到引入自动二阶交叉特征的FM和FFM到非线性树模型GBDT和GBDTLR到最近全面迁移至大规模深度学习排序模型。下面先简单介绍下传统机器学习模型LR、FM、GBDT的应用和优缺点然后详细介绍深度模型的探索实践过程。传统机器学习模型图2 几种传统机器学习模型结构LR可以视作单层单节点的线性网络结构。模型优点是可解释性强。通常而言良好的解释性是工业界应用实践比较注重的一个指标它意味着更好的可控性同时也能指导工程师去分析问题优化模型。但是LR需要依赖大量的人工特征挖掘投入有限的特征组合自然无法提供较强的表达能力。FM可以看做是在LR的基础上增加了一部分二阶交叉项。引入自动的交叉特征有助于减少人工挖掘的投入同时增加模型的非线性捕捉更多信息。FM能够自动学习两两特征间的关系但更高量级的特征交叉仍然无法满足。GBDT是一个Boosting的模型通过组合多个弱模型逐步拟合残差得到一个强模型。树模型具有天然的优势能够很好的挖掘组合高阶统计特征兼具较优的可解释性。GBDT的主要缺陷是依赖连续型的统计特征对于高维度稀疏特征、时间序列特征不能很好的处理。深度神经网络模型随着业务的发展在传统模型上取得指标收益变得愈发困难。同时业务的复杂性要求我们引入海量用户历史数据超大规模知识图谱特征等多维度信息源以实现精准个性化的排序。因此我们从2018年下半年开始全力推进L2核心排序层的主模型迁移至深度学习排序模型。深度模型优势体现在如下几个方面强大的模型拟合能力深度学习网络包含多个隐藏层和隐藏结点配合上非线性的激活函数理论上可以拟合任何函数因此十分适用于点评搜索这种复杂的场景。强大的特征表征和泛化能力深度学习模型可以处理很多传统模型无法处理的特征。例如深度网络可以直接中从海量训练样本中学习到高维稀疏ID的隐含信息并通过Embedding的方式去表征另外对于文本、序列特征以及图像特征深度网络均有对应的结构或者单元去处理。自动组合和发现特征的能力华为提出的DeepFM以及Google提出的DeepCrossNetwork可以自动进行特征组合代替大量人工组合特征的工作。下图是我们基于Google提出的WideDeep模型搭建的网络结构[2]。其中Wide部分输入的是LR、GBDT阶段常用的一些细粒度统计特征。通过较长周期统计的高频行为特征能够提供很好的记忆能力。Deep部分通过深层的神经网络学习Low-Order、高维度稀疏的Categorical型特征拟合样本中的长尾部分发现新的特征组合提高模型的泛化能力。同时对于文本、头图等传统机器学习模型难以刻画的特征我们可以通过End-to-End的方式利用相应的子网络模型进行预处理表示然后进行融合学习。图3 DeepWide模型结构图3. 搜索深度排序模型的特征工程实践深度学习的横空出世将算法工程师从很多人工挖掘和组合特征的事情中解放出来。甚至有一种论调专做特征工程的算法工程师可能面临着失业的风险。但是深度学习的自动特征学习目前主要集中体现在CV领域CV领域的特征数据是图片的像素点——稠密的低阶特征深度学习通过卷积层这个强力工具可以自动对低阶特征进行组合和变换相比之前人工定义的图像特征从效果上来说确实更加显著。在NLP领域因为Transformer的出现在自动特征挖掘上也有了长足的进步BERT利用Transformer在多个NLP Task中取得了State-of-The-Art的效果。但是对于CTR预估和排序学习的领域目前深度学习尚未在自动特征挖掘上对人工特征工程形成碾压之势因此人工特征工程依然很重要。当然深度学习在特征工程上与传统模型的特征工程也存在着一些区别我们的工作主要集中在如下几个方面。3.1 特征预处理特征归一化深度网络的学习几乎都是基于反向传播而此类梯度优化的方法对于特征的尺度非常敏感。因此需要对特征进行归一化或者标准化以促使模型更好的收敛。特征离散化工业界一般很少直接使用连续值作为特征而是将特征离散化后再输入到模型中。一方面因为离散化特征对于异常值具有更好的鲁棒性其次可以为特征引入非线性的能力。并且离散化可以更好的进行Embedding我们主要使用如下两种离散化方法等频分桶按样本频率进行等频切分缺失值可以选择给一个默认桶值或者单独设置分桶。树模型分桶等频离散化的方式在特征分布特别不均匀的时候效果往往不好。此时可以利用单特征结合Label训练树模型以树的分叉点做为切分值相应的叶子节点作为桶号。特征组合基于业务场景对基础特征进行组合形成更丰富的行为表征为模型提供先验信息可加速模型的收敛速度。典型示例如下用户性别与类目之间的交叉特征能够刻画出不同性别的用户在类目上的偏好差异比如男性用户可能会较少关注“丽人”相关的商户。时间与类目之间的交叉特征能够刻画出不同类目商户在时间上的差异例如酒吧在夜间会更容易被点击。3.2 万物皆可Embedding深度学习最大的魅力在于其强大的特征表征能力在点评搜索场景下我们有海量的用户行为数据有丰富的商户UGC信息以及美团大脑提供的多维度细粒度标签数据。我们利用深度学习将这些信息Embedding到多个向量空间中通过Embedding去表征用户的个性化偏好和商户的精准画像。同时向量化的Embedding也便于深度模型进一步的泛化、组合以及进行相似度的计算。3.2.1 用户行为序列的Embedding用户行为序列搜索词序列、点击商户序列、筛选行为序列包含了用户丰富的偏好信息。例如用户筛选了“距离优先”时我们能够知道当前用户很有可能是一个即时消费的场景并且对距离较为敏感。行为序列特征一般有如下图所示的三种接入方式:- Pooling序列Embedding后接入Sum/Average Pooling层。此方式接入成本低但忽略了行为的时序关系。- RNNLSTM/GRU接入利用循环网络进行聚合。此方式能够考虑行为序列的时序关系代价是增大了模型复杂度影响线上预测性能。- Attention序列Embedding后引入Attention机制表现为加权的Sum Pooling相比LSTM/GRU计算开销更低[4]。图4 行为序列特征接入的几种方法同时为了突显用户长期偏好和短期偏好对于排序的不同影响我们按照时间维度对行为序列进行了划分Session、半小时、一天、一周等粒度也在线上取得了收益。3.2.2 用户ID的Embedding一种更常见的刻画用户偏好的方式是直接将用户ID经过Embedding后作为特征接入到模型中但是最后上线的效果却不尽如人意。通过分析用户的行为数据我们发现相当一部分用户ID的行为数据较为稀疏导致用户ID的Embedding没有充分收敛未能充分刻画用户的偏好信息。Airbnb发表在KDD 2018上的文章为这种问题提供了一种解决思路[9]——利用用户基础画像和行为数据对用户ID进行聚类。Airbnb的主要场景是为旅游用户提供民宿短租服务一般用户一年旅游的次数在1-2次之间因此Airbnb的用户行为数据相比点评搜索会更为稀疏一些。图5 按照用户画像和行为信息聚类如上图所示将用户画像特征和行为特征进行离散分桶拼接特征名和所属桶号得到的聚类ID为US_lt1_pn3_pg3_r3_5s4_c2_b1_bd2_bt2_nu3。我们也采取了类似Airbnb的方案稀疏性的问题得到了很好的解决并且这样做还获得了一些额外的收益。大众点评作为一个本地化的生活信息服务平台大部分用户的行为都集中自己的常驻地导致用户到达一个新地方时排序个性化明显不足。通过这种聚类的方式将异地有相同行为的用户聚集在一起也能解决一部分跨站的个性化问题。3.2.3 商户信息Embedding商户Embedding除了可以直接将商户ID加入模型中之外美团大脑也利用深度学习技术对UGC进行大量挖掘对商家的口味、特色等细粒度情感进行充分刻画例如下图所示的“好停车”、“菜品精致”、“愿意再次光顾”等标签。图6 美团大脑提供的商家细粒度情感标签这些信息与单纯的商户星级、点评数相比刻画的角度更多粒度也更细。我们将这些标签也进行Embedding并输入到模型中直连将标签特征做Pooling后直接输入模型。这种接入方式适合端到端的学习方式但受输入层大小限制只能取Top的标签容易损失抽象实体信息。分组直连类似于直连接入的方式但是先对标签进行分类如菜品/风格/口味等类别每个分类取Top N的实体后进行Pooling生成不同维度的语义向量。与不分组的直连相比能够保留更多抽象信息。子模型接入可以利用DSSM模型以标签作为商户输入学习商户的Embedding表达。此种方式能够最大化保留标签的抽象信息但是线上实现和计算成本较高。3.2.4 加速Embedding特征的收敛在我们的深度学习排序模型中除了Embedding特征也存在大量Query、Shop和用户维度的强记忆特征能够很快收敛。而Embedding特征是更为稀疏的弱特征收敛速度较慢为了加速Embedding特征的收敛我们尝试了如下几种方案低频过滤针对出现频率较低的特征进行过滤可以很大程度上减少参数量避免过拟合。预训练利用多类模型对稀疏Embedding特征进行预训练然后进入模型进行微调通过无监督模型如Word2vec、Fasttext对用户-商户点击关系建模生成共现关系下的商户Embedding。利用DSSM等监督模型对Query-商户点击行为建模得到Query和商户的Embedding。Multi-Task针对稀疏的Embedding特征单独设置一个子损失函数如下图所示。此时Embedding特征的更新依赖两个损失函数的梯度而子损失函数脱离了对强特征的依赖可以加快Embedding特征的收敛。图7 Multi-Task加速Embedding特征收敛3.3 图片特征图片在搜索结果页中占据了很大的展示面积图片质量的好坏会直接影响用户的体验和点击而点评商户首图来自于商户和用户上传的图片质量参差不齐。因此图片特征也是排序模型中较为重要的一类。目前点评搜索主要用了以下几类图片特征基础特征提取图片的亮度、色度饱和度等基础信息进行特征离散化后得到图片基础特征。泛化特征使用ResNet50进行图片特征提取[3]通过聚类得到图片的泛化特征。质量特征使用自研的图片质量模型提取中间层输出作为图片质量的Embedding特征。标签特征提取图片是否是食物、环境、价目表、Logo等作为图片分类和标签特征。图8 图片特征接入4. 适用于搜索场景的深度学习Listwise排序算法LambdaDNN4.1 搜索业务指标与模型优化目标的Gap通常模型的预测目标与业务指标总会存在一些Gap。如果模型的预测目标越贴近业务目标越能保证模型优化的同时业务指标也能够有相应的提升反之则会出现模型离线指标提升但线上关键业务指标提升不明显甚至出现负向的问题。工业届大部分深度学习排序采用Pointwise的Log Loss作为损失函数与搜索业务指标有较大的Gap。体现在如下两个方面搜索业务常用的指标有QV_CTR或者SSR(Session Success Rate)更关心的是用户搜索的成功率有没有发生点击行为而Pointwise的Log Loss更多是关注单个Item的点击率。搜索业务更关心排在页面头部结果的好坏而Pointwise的方法则对于所有位置的样本一视同仁。图9 Pointwise和Listwise优化目标的区别基于上述理由我们对于深度学习模型的损失函数进行了优化。4.2 优化目标改进从Log Loss到NDCG为了让排序模型的优化目标尽量贴近搜索业务指标需要按照Query计算损失且不同位置的样本具有不同的权重。搜索系统常用的指标NDCG(Normalized Discounted Cumulative Gain)相较于Log Loss显然更贴近搜索业务的要求NDCG计算公式如下累加部分为DCG(Discounted Cumulative Gain)表示按照位置折损的收益对于Query下的结果列表l函数G表示对应Doc的相关度分值通常取指数函数即G(lj)2lj-1lj表示的是相关度水平如{012}函数 η 即位置折损一般采用 η(j)1/log(j1)Doc与Query的相关度越高且位置越靠前则DCG值会越大。另外通常我们仅关注排序列表页前k位的效果Zk 表示 DCGk 的可能最大值以此进行归一化处理后得到的就是NDCGk。问题在于NDCG是一个处处非平滑的函数直接以它为目标函数进行优化是不可行的。LambdaRank提供了一种思路绕过目标函数本身直接构造一个特殊的梯度按照梯度的方向修正模型参数最终能达到拟合NDCG的方法[6]。因此如果我们能将该梯度通过深度网络进行反向传播则能训练一个优化NDCG的深度网络该梯度我们称之为Lambda梯度通过该梯度构造出的深度学习网络称之为LambdaDNN。要了解Lambda梯度需要引入LambdaRank。LambdaRank模型是通过Pairwise来构造的通常将同Query下有点击样本和无点击样本构造成一个样本Pair。模型的基本假设如下式所示令Pij为同一个Query下Doci相比Docj更相关的概率其中si和sj分别为Doci和Docj的模型得分使用交叉熵为损失函数令Sij表示样本Pair的真实标记当Doci比Docj更相关时即Doci有被用户点击而Docj没有被点击有Sij1否则为-1则损失函数可以表示为在构造样本Pair时我们可以始终令i为更相关的文档此时始终有Sij≡1代入上式并进行求导则损失函数的梯度为到目前为止损失函数的计算过程中并未考虑样本所在的位置信息。因此进一步对梯度进行改造考虑Doci和Docj交换位置时的NDCG值变化下式即为前述的Lambda梯度。可以证明通过此种方式构造出来的梯度经过迭代更新最终可以达到优化NDCG的目的。Lambda梯度的物理意义如下图所示。其中蓝色表示更相关用户点击过的文档则Lambda梯度更倾向于位置靠上的Doc得到的提升更大如红色箭头所示。有了Lambda梯度的计算方法训练中我们利用深度网络预测同Query下的Doc得分根据用户实际点击Doc的情况计算Lambda梯度并反向传播回深度网络则可以得到一个直接预测NDCG的深度网络。图10 Lambda梯度的物理意义4.3 LambdaDNN的工程实施我们利用TensorFlow分布式框架训练LambdaDNN模型。如前文所述Lambda梯度需要对同Query下的样本进行计算但是正常情况下所有的样本是随机Shuffle到各个Worker的。因此我们需要对样本进行预处理通过QueryId进行Shuffle将同一个Query的样本聚合在一起同一个Query的样本打包进一个TFRecord。由于每次请求Query召回的Doc数不一样对于可变Size的Query样本在拉取数据进行训练时需要注意TF会自动补齐Mini-Batch内每个样本大小一致导致输入数据中存在大量无意义的默认值样本。这里我们提供两点处理方式MR过程中对Key进行处理使得多个Query的样本聚合在一起然后在训练的时候进行动态切分。读取到补齐的样本根据设定的补齐标记获取索引位去除补齐数据。图11 Lambda梯度的分布式实现为了提升训练效率我们与基础研发平台数据平台中心紧密协同一起探索并验证了多项优化操作将ID类特征的映射等操作一并在预处理中完成减少多轮Training过程中的重复计算。将样本转TfRecord利用RecordDataSet方式读取数据并计算处理Worker的计算性能大概提升了10倍。Concat多个Categorical特征组合成Multi-Hot的Tensor进行一次Embedding_Lookup操作减少Map操作的同时有助于参数做分片存储计算。稀疏Tensor在计算梯度以及正则化处理时保留索引值仅对有数值的部分进行更新操作。多个PS服务器间进行分片存储大规模Tensor变量减少Worker同步更新的通讯压力减少更新阻塞达到更平滑的梯度更新效果。整体下来对于30亿左右的样本量、上亿级别的特征维度一轮迭代大概在半小时内完成。适当的增加并行计算的资源可以达到分钟级的训练任务。4.4 进一步改进优化目标NDCG的计算公式中折损的权重是随着位置呈指数变化的。然而实际曝光点击率随位置变化的曲线与NDCG的理论折损值存在着较大的差异。对于移动端的场景来说用户在下拉滑动列表进行浏览时视觉的焦点会随着滑屏、翻页而发生变动。例如用户翻到第二页时往往会重新聚焦因此会发现第二页头部的曝光点击率实际上是高于第一页尾部位置的。我们尝试了两种方案去微调NDCG中的指数位置折损根据实际曝光点击率拟合折损曲线根据实际统计到的曝光点击率数据拟合公式替代NDCG中的指数折损公式绘制的曲线如图12所示。计算Position Bias作为位置折损Position Bias在业界有较多的讨论其中[7][8]将用户点击商户的过程分为观察和点击两个步骤a.用户需要首先看到该商户而看到商户的概率取决于所在的位置b.看到商户后点击商户的概率只与商户的相关性有关。步骤a计算的概率即为Position Bias这块内容可以讨论的东西很多这里不再详述。图12 真实位置折损与理论折损的差别经过上述对NDCG计算改造训练出的LambdaDNN模型相较Base树模型和Pointwise DNN模型在业务指标上有了非常显著的提升。图13 LambdaDNN离线NDCG指标与线上PvCtr效果对比4.5 Lambda深度排序框架Lambda梯度除了与DNN网络相结合外事实上可以与绝大部分常见的网络结构相结合。为了进一步学习到更多交叉特征我们在LambdaDNN的基础上分别尝试了LambdaDeepFM和LambdaDCN网络其中DCN网络是一种加入Cross的并行网络结构交叉的网络每一层的输出特征与第一层的原始输入特征进行显性的两两交叉相当于每一层学习特征交叉的映射去拟合层之间的残差。图14 DCN模型结构离线的对比实验表明Lambda梯度与DCN网络结合之后充分发挥了DCN网络的特点简洁的多项式交叉设计有效地提升模型的训练效果。NDCG指标对比效果如下图所示图15 Lambda Loss与DCN网络结果的效果5. 深度学习排序诊断系统深度学习排序模型虽然给业务指标带来了大幅度的提升但由于深度学习模型的“黑盒属性”导致了巨大的解释性成本也给搜索业务带来了一些问题日常搜索Bad Case无法快速响应搜索业务日常需要应对大量来自于用户、业务和老板们的“灵魂拷问”“为何这个排序是这样的”“为什么这家商户质量跟我差不多但是会排在我的前面”。刚切换到深度学习排序模型的时候我们对于这样的问题显得手足无措需要花费大量的时间去定位问题。无法从Bad Case中学习总结规律持续优化如果不明白为什么排序模型会得出一个很坏的排序结果自然也无法定位模型到底出了什么问题也就无法根据Bad Case总结规律从而确定模型和特征将来的优化方向。模型和特征是否充分学习无从得知新挖掘一些特征之后通常我们会根据离线评测指标是否有提升决定特征是否上线。但是即使一个有提升的特征我们也无法知道这个特征是否性能足够好。例如模型拟合的距离特征会不会在特定的距离段出现距离越远反而打分越高的情况。这些问题都会潜在带来一些用户无法理解的排序结果。我们需要对深度排序模型清晰地诊断并解释。关于机器学习模型的可解释性研究业界已经有了一些探索。Lime(Local Interpretable Model-Agnostic Explanations)是其中的一种如下图所示通过对单个样本的特征生成扰动产生近邻样本观察模型的预测行为。根据这些扰动的数据点距离原始数据的距离分配权重基于它们学习得到一个可解释的模型和预测结果[5]。举个例子如果需要解释一个情感分类模型是如何预测“我讨厌这部电影”为负面情感的我们通过丢掉部分词或者乱序构造一些样本预测情感最终会发现决定“我讨厌这部电影”为负面情感的是因为“讨厌”这个词。图16 Lime解释器的工作原理基于Lime解释器的思想我们开发了一套深度模型解释器工具——雅典娜系统。目前雅典娜系统支持两种工作模式Pairwise和Listwise模式Pairwise模式用来解释同一个列表中两个结果之间的相对排序。通过对样本的特征进行重新赋值或者替换等操作观察样本打分和排序位次的变化趋势诊断出当前样本排序是否符合预期。如下图所示通过右侧的特征位次面板可以快速诊断出为什么“南京大牌档”的排序比“金时代顺风港湾”要更靠前。第一行的特征位次信息显示若将“金时代顺风港湾”的1.3km的距离特征用“南京大牌档”的0.2km的距离特征进行替换排序位次将上升10位由此得出“南京大牌档”排在前面的决定性因素是因为距离近。Listwise模式与Lime的工作模式基本类似通过整个列表的样本生成扰动样本训练线性分类器模型输出特征重要度从而达到对模型进行解释的目的。图17 深度学习排序诊断系统雅典娜6. 总结与展望2018年下半年点评搜索完成了从树模型到大规模深度学习排序模型的全面升级。团队在深度学习特征工程、模型结构、优化目标以及工程实践上都进行了一些探索在核心指标上取得了较为显著的收益。当然未来依然有不少可以探索的点。在特征层面大量知识图谱提供的标签信息尚未充分挖掘。从使用方式上看简单以文本标签的形式接入损失了知识图谱的结构信息因此Graph Embedding也是未来需要尝试的方向。同时团队也会利用BERT在Query和商户文本的深层语义表达上做一些工作。模型结构层面目前线上依然以全连接的DNN网络结构为主但DNN网络结构在低秩数据的学习上不如DeepFM和DCN。目前LambdaDeepFM和LambdaDCN在离线上已经取得了收益未来会在网络结构上做进一步优化。在模型优化目标上Lambda Loss计算损失的时候只会考虑Query内部有点击和无点击的样本对大量无点击的Query被丢弃同时同一个用户短时间内在不同Query下的行为也包含着一些信息可以利用。因此目前团队正在探索综合考虑Log Loss和Lambda Loss的模型通过Multi-Task和按照不同维度Shuffle样本让模型充分学习目前我们已经在线下取得了一些收益。最后近期Google开源的TF Ranking提出的Groupwise模型也对我们有一些启发。目前绝大部分的Listwise方法只是体现在模型训练阶段在打分预测阶段依然是Pointwise的即只会考虑当前商户相关的特征而不会考虑列表上下文的结果未来我们也会在这个方向上进行一些探索。参考资料美团大脑知识图谱的建模方法及其应用Wide Deep Learning for Recommender SystemsDeep Residual Learning for Image RecognitionAttention Is All You NeedLocal Interpretable Mode l- Agnostic Explanations: LIMEFrom RankNet to LambdaRank to LambdaMART: An OverviewA Novel Algorithm for Unbiased Learning to RankUnbiased Learning-to-Rank with Biased FeedbackReal-time Personalization using Embeddings for Search Ranking at Airbnb作者简介非易2016年加入美团点评高级算法工程师目前主要负责点评搜索核心排序层的研发工作。祝升2016年加入美团点评高级算法工程师目前负责点评搜索核心排序层的研发工作。汤彪2013年加入美团点评高级算法专家点评平台搜索技术负责人致力于深层次查询理解和大规模深度学习排序的技术落地。张弓2012年加入美团点评美团点评研究员。目前主要负责点评搜索业务演进及集团搜索公共服务平台建设。仲远博士美团AI平台部NLP中心负责人点评搜索智能中心负责人。在国际顶级学术会议发表论文30余篇获得ICDE 2015最佳论文奖并是ACL 2016 Tutorial “Understanding Short Texts”主讲人出版学术专著3部获得美国专利5项。此前博士曾担任微软亚洲研究院主管研究员以及美国Facebook公司Research Scientist。曾负责微软研究院知识图谱、对话机器人项目和Facebook产品级NLP Service。----------  END  ----------OpenKG.CN中文开放知识图谱简称OpenKG.CN旨在促进中文知识图谱数据的开放与互联促进知识图谱和语义技术的普及和广泛应用。点击阅读原文进入 OpenKG 博客。
http://www.pierceye.com/news/652136/

相关文章:

  • 网站设置不能通过链接访问比较好的源码网站
  • 深圳做网站联雅空间业务建设网站
  • 合肥企业网站设计制作莱芜杂谈 莱芜话题
  • 大圣网站建设为什么不推荐大家去外包公司
  • 做网站手机版wordpress如何换成经典编辑器
  • 建设网站的知识企业做网站设计的
  • 西安网站排名分析软文营销把什么放在第一位
  • 织梦手机网站模板删除不了宁波网站建设服务商
  • 深圳网站建设最专业网站seo技术
  • 定制网站开发一般多少钱郑州哪家公司做网站好
  • jsp做的网站效果给你一个网站你怎么做的吗
  • 怎样做网站海报wordpress最近怎么又是5.0更新
  • 淡水网站建设哪家便宜设计网页分析
  • 长沙多迪php网站开发培训学校小说榜单首页百度搜索风云榜
  • 门户网站建设计入什么科目网站备案 时间更新
  • 企业建网站租用服务器好还是买一个好wordpress 预订插件
  • 电气建设网站下载的asp网站怎么打开
  • 南阳网站建设icp备手机应用商店免费下载
  • 网站开发测量像素工具网站模板包含哪些内容
  • 南昌网站排名优化费用湖北公众号定制开发
  • 个人主页自助建站凡科网干嘛的
  • 网站后台上传图片不显示品牌营销咨询公司
  • 卖房网站母亲节做什麽活动从传播的角度
  • 永久免费的cad软件seo咨询
  • 网站邮件功能设计理论网站排名软件包年
  • wordpress语言文件编辑专业的企业网站优化公司
  • 正定网站建设制作公司wordpress去掉模板登录
  • 定制开发一个网站多少钱网站开发项目的心得体会
  • 网站被做跳转怎么办个人网站开发软件
  • 湛江网站制作费用南昌建站系统外包