当前位置: 首页 > news >正文

网站建设案例新闻西安做网站广告的公司

网站建设案例新闻,西安做网站广告的公司,软文网站平台,网站开发遇到的难题解决年轻的陀思妥耶夫斯基被介绍给生成AI#xff0c;通过Midjourney创建 一、说明 我经常与不同领域的同事互动#xff0c;我喜欢向几乎没有数据科学背景的人传达机器学习概念的挑战。在这里#xff0c;我试图用简单的术语解释 GPT 是如何连接的#xff0c;只是这次是书面形式。… 年轻的陀思妥耶夫斯基被介绍给生成AI通过Midjourney创建 一、说明         我经常与不同领域的同事互动我喜欢向几乎没有数据科学背景的人传达机器学习概念的挑战。在这里我试图用简单的术语解释 GPT 是如何连接的只是这次是书面形式。         在ChatGPT流行的魔术背后有一个不受欢迎的逻辑。你给 ChatGPT 写一个提示它会生成文本无论它是否准确它都类似于人类的答案。它如何能够理解您的提示并生成连贯且易于理解的答案请看本文。 二、变压器神经网络         该架构旨在处理大量非结构化数据在我们的例子中是文本。当我们说架构时我们的意思本质上是一系列并行在几层中进行的数学运算。通过这个方程组引入了一些创新帮助我们克服了长期存在的文本生成挑战。直到 5 年前我们一直在努力解决的挑战。         如果 GPT 已经在这里存在了 5 年确实 GPT 论文是在 2018 年发表的那么 GPT 不是旧消息吗为什么它最近变得非常受欢迎GPT 1、2、3、3.5 ChatGPT 和 4 有什么区别         所有 GPT 版本都构建在相同的架构上。但是每个后续模型都包含更多参数并使用更大的文本数据集进行训练。显然后来的 GPT 版本引入了其他新颖性尤其是在训练过程中例如通过人类反馈进行强化学习我们将在本博客系列的第 3 部分中解释。 2.1 向量、矩阵、张量。         所有这些花哨的词本质上都是包含数字块的单位。这些数字经过一系列数学运算主要是乘法和求和直到我们达到最佳输出值这是可能结果的概率。         输出值从这个意义上说它是语言模型生成的文本对吧是的。那么输入值是什么是我的提示吗是的但不完全是。那么背后还有什么呢         在继续讨论不同的文本解码策略这将是以下博客文章的主题之前消除歧义很有用。让我们回到我们一开始问的基本问题。它如何理解人类语言 2.2 生成式预训练变压器。         GPT 缩写代表的三个词。我们触摸了上面的转换器部分它代表了进行大量计算的架构。但是我们到底计算了什么你甚至从哪里得到数字它是一个语言模型您要做的就是输入一些文本。如何计算文本 数据是不可知的。所有数据都是相同的无论是文本、声音还是图像形式。 2.3 令牌          我们将文本拆分为小块令牌并为每个块分配一个唯一的编号令牌ID。模特不认识文字、图像或录音。他们学会用大量的数字参数来表示它们这可以作为我们以数字形式说明事物特征的工具。令牌是传达含义的语言单位令牌 ID 是编码令牌的唯一数字。         显然我们如何标记语言可能会有所不同。词汇化可能涉及将文本拆分为句子、单词、单词的一部分子单词甚至单个字符。 让我们考虑一个场景我们的语言语料库中有 50000 个代币类似于 GPT-2 有 50257 个。标记化后我们如何表示这些单位 Sentence: students celebrate the graduation with a big party Token labels: [[CLS], students, celebrate, the, graduation, with, a, big, party, [SEP]] Token IDs: tensor([[ 101, 2493, 8439, 1996, 7665, 2007, 1037, 2502, 2283, 102]])         上面是一个被标记成单词的示例句子。令牌化方法在实现上可能有所不同。对于我们现在来说重要的是要了解我们通过其相应的令牌 ID 获取语言单位标记的数字表示。那么现在我们有了这些令牌 ID我们是否可以简单地将它们直接输入到进行计算的模型中         基数在数学 101 和 2493 中很重要因为令牌表示对模型很重要。因为请记住我们所做的主要是大块数字的乘法和求和。因此将数字乘以 101 或 2493 很重要。那么我们如何确保用数字 101 表示的代币的重要性不亚于 2493只是因为我们碰巧任意地标记了它我们如何在不导致虚构排序的情况下对单词进行编码 2.4 单热编码。          令牌的稀疏映射。独热编码是我们将每个令牌投影为二进制向量的技术。这意味着向量中只有一个元素是 1“热”其余元素是 0“冷”。 作者图片独热编码向量示例         令牌用一个向量表示该向量在我们的语料库中具有总令牌的长度。简单来说如果我们的语言中有 50k 个令牌则每个标记都由一个向量 50k 表示其中只有一个元素为 1其余元素为 0。由于此投影中的每个向量仅包含一个非零元素因此将其命名为稀疏表示。但是您可能认为这种方法效率非常低。是的我们设法删除了令牌 ID 之间的人工基数但我们无法推断有关单词语义的任何信息。我们无法通过使用稀疏向量来理解“派对”一词是指庆祝活动还是政治组织。此外用大小为 50k 的向量表示每个代币将意味着总共 50k 个长度为 50k 的向量。这在所需的内存和计算方面效率非常低。幸运的是我们有更好的解决方案。 2.5 嵌入。         令牌的密集表示形式。标记化单元通过嵌入层其中每个标记都转换为固定大小的连续向量表示。例如在 GPT 3 的情况下中的每个标记都由 768 个数字的向量表示。这些数字是随机分配的然后在看到大量数据训练后被模型学习。 Token Label: “party” Token : 2283 Embedding Vector Length: 768 Embedding Tensor Shape: ([1, 10, 768])Embedding vector:tensor([ 2.9950e-01, -2.3271e-01, 3.1800e-01, -1.2017e-01, -3.0701e-01,-6.1967e-01, 2.7525e-01, 3.4051e-01, -8.3757e-01, -1.2975e-02,-2.0752e-01, -2.5624e-01, 3.5545e-01, 2.1002e-01, 2.7588e-02,-1.2303e-01, 5.9052e-01, -1.1794e-01, 4.2682e-02, 7.9062e-01,2.2610e-01, 9.2405e-02, -3.2584e-01, 7.4268e-01, 4.1670e-01,-7.9906e-02, 3.6215e-01, 4.6919e-01, 7.8014e-02, -6.4713e-01,4.9873e-02, -8.9567e-02, -7.7649e-02, 3.1117e-01, -6.7861e-02,-9.7275e-01, 9.4126e-02, 4.4848e-01, 1.5413e-01, 3.5430e-01,3.6865e-02, -7.5635e-01, 5.5526e-01, 1.8341e-02, 1.3527e-01,-6.6653e-01, 9.7280e-01, -6.6816e-02, 1.0383e-01, 3.9125e-02,-2.2133e-01, 1.5785e-01, -1.8400e-01, 3.4476e-01, 1.6725e-01,-2.6855e-01, -6.8380e-01, -1.8720e-01, -3.5997e-01, -1.5782e-01,3.5001e-01, 2.4083e-01, -4.4515e-01, -7.2435e-01, -2.5413e-01,2.3536e-01, 2.8430e-01, 5.7878e-01, -7.4840e-01, 1.5779e-01,-1.7003e-01, 3.9774e-01, -1.5828e-01, -5.0969e-01, -4.7879e-01,-1.6672e-01, 7.3282e-01, -1.2093e-01, 6.9689e-02, -3.1715e-01,-7.4038e-02, 2.9851e-01, 5.7611e-01, 1.0658e00, -1.9357e-01,1.3133e-01, 1.0120e-01, -5.2478e-01, 1.5248e-01, 6.2976e-01,-4.5310e-01, 2.9950e-01, -5.6907e-02, -2.2957e-01, -1.7587e-02,-1.9266e-01, 2.8820e-02, 3.9966e-03, 2.0535e-01, 3.6137e-01,1.7169e-01, 1.0535e-01, 1.4280e-01, 8.4879e-01, -9.0673e-01,… … … ])         上面是单词“party”的嵌入向量示例。         现在我们有 50000x786 大小的矢量相比之下50000x50000 个独热编码的效率要高得多。         嵌入向量将是模型的输入。由于密集的数字表示我们将能够捕获单词的语义相似的标记的嵌入向量将彼此更接近。         如何在上下文中衡量两个语言单元的相似性有几个函数可以测量相同大小的两个向量之间的相似性。让我们用一个例子来解释它。         考虑一个简单的例子我们有标记“猫”、“狗”、“汽车”和“香蕉”的嵌入向量。为了简化起见我们使用嵌入大小 4。这意味着将有四个学习的数字来表示每个令牌。 import numpy as np from sklearn.metrics.pairwise import cosine_similarity# Example word embeddings for cat , dog, car and banana embedding_cat np.array([0.5, 0.3, -0.1, 0.9]) embedding_dog np.array([0.6, 0.4, -0.2, 0.8]) embedding_car np.array([0.5, 0.3, -0.1, 0.9]) embedding_banana np.array([0.1, -0.8, 0.2, 0.4])使用上面的向量让我们使用余弦相似度来计算相似度分数。人类逻辑会发现“狗”和“猫”这个词比“香蕉汽车”这两个词彼此更相关。我们可以期望数学来模拟我们的逻辑吗 # Calculate cosine similarity similarity cosine_similarity([embedding_cat], [embedding_dog])[0][0]print(fCosine Similarity between cat and dog: {similarity:.4f})# Calculate cosine similarity similarity_2 cosine_similarity([embedding_car], [embedding_banana])[0][0]print(fCosine Similarity between car and banana: {similarity:.4f}) Cosine Similarity between cat and dog: 0.9832 Cosine Similarity between car and banana: 0.1511         我们可以看到单词“cat”和“dog”的相似度得分非常高而单词“car”和“banana”的相似度得分非常低。现在想象一下对于我们的语言语料库中的每 50000 个标记嵌入长度为 768 而不是 4 个的向量。这就是我们如何找到彼此相关的单词的方式。         现在我们来看看下面两个语义复杂度较高的句子。 students celebrate the graduation with a big partydeputy leader is highly respected in the party         第一句和第二句中的“党”一词传达了不同的含义。大型语言模型如何能够区分作为政治组织的“政党”和作为庆祝社会活动的“政党”之间的区别         我们能否通过 token 嵌入来区分同一个 token 的不同含义事实是尽管嵌入为我们提供了一系列优势但它们不足以解决人类语言语义挑战的全部复杂性。         自我关注。变压器神经网络再次提供了解决方案。我们生成一组新的权重参数的另一个名称即查询矩阵、键矩阵和值矩阵。这些权重学习将标记的嵌入向量表示为一组新的嵌入。如何只需取原始嵌入的加权平均值即可。每个标记“关注”输入句子中的每个其他标记包括其自身并计算一组注意力权重或者换句话说新的所谓“上下文嵌入”。         它所做的只是通过分配使用标记嵌入计算的新数字集注意力权重来映射输入句子中单词的重要性。         作者提供的图片不同上下文中 token 的注意力权重BertViz 注意力头视图         上面的可视化用两句话展示了令牌“方”对其余令牌的“关注”。连接的大胆性表明了代币的重要性或相关性。注意和“出席”是指代一系列新的数字注意参数及其大小的术语我们用它来用数字表示单词的重要性。在第一句中“聚会”一词最关注“庆祝”一词而在第二句中“代表”一词最受关注。这就是模型如何能够通过检查周围的单词来合并上下文。         正如我们在注意力机制中提到的我们推导出新的权重矩阵集即查询、键和值简称 qkv。它们是相同大小通常小于嵌入向量的级联矩阵被引入到体系结构中以捕获语言单元的复杂性。学习注意力参数是为了揭开单词单词对单词对和单词对对等之间的关系的神秘面纱。下面是查找最相关单词的查询、键和值矩阵的可视化效果。         图片由作者提供查询键值矩阵及其最终概率图示BertViz qkv 视图         可视化将 q 和 k 向量表示为垂直波段其中每个波段的粗体反映了其幅度。令牌之间的连接表示由注意力决定的权重表明“party”的q向量与“is”“deputy”和“respected”的k向量最显着地对齐。         为了使注意力机制和qk和v的概念不那么抽象想象一下你去参加一个聚会听到了一首你爱上的惊人歌曲。派对结束后您渴望找到这首歌并再次收听但您只记得歌词中的 5 个单词和歌曲旋律的一部分查询。要找到这首歌您决定浏览派对播放列表键并收听相似性功能派对上播放的列表中的所有歌曲。当您最终认出这首歌时您会记下歌曲的名称值。         转换器引入的最后一个重要技巧是将位置编码添加到向量嵌入中。仅仅因为我们想捕获单词的位置信息。它增强了我们更准确地预测下一个标记的机会以达到真实的句子上下文。这是基本信息因为经常交换单词会完全改变上下文。例如“蒂姆追了一辈子的云”和“云追了蒂姆一辈子”这句话在本质上是绝对不同的。         到目前为止我们在基本级别上探索的所有数学技巧其目标是在给定输入令牌序列的情况下预测下一个令牌。事实上GPT 是在一个简单的任务上进行训练的即文本生成或者换句话说下一个令牌预测。问题的核心是我们衡量代币的概率给定它之前出现的代币序列。         您可能想知道模型如何从随机分配的数字中学习最佳数字。这可能是另一篇博客文章的主题但这实际上是理解的基础。此外这是一个很好的迹象表明您已经在质疑基础知识。为了消除不明确性我们使用了一种优化算法该算法根据称为损失函数的指标调整参数。此指标是通过将预测值与实际值进行比较来计算的。该模型跟踪指标的机会并根据损失值的大小调整数字。这个过程一直完成直到给定我们在称为超参数的算法中设置的规则损失不能更小。一个示例超参数可以是我们想要计算损失和调整权重的频率。这是学习背后的基本思想。         我希望在这篇简短的文章中我至少能够稍微清除图片。本博客系列的第二部分将重点介绍解码策略即为什么您的提示很重要。第三部分也是最后一部分将专门讨论 ChatGPT 成功的关键因素即通过人类反馈进行强化学习。非常感谢您的阅读。直到下次。 三、引用 A.瓦斯瓦尼N.沙泽尔N.帕尔马J.乌什科雷特L.琼斯A.N.戈麦斯Ł。Kaiser和I. Polosukhin“注意力是你所需要的一切”神经信息处理系统进展30NIPS 20172017。 J. Vig“转换器模型中注意力的多尺度可视化”计算语言学协会第 57 届年会论文集系统演示第 37-42 页意大利佛罗伦萨计算语言学协会2019 年。 L. Tunstall、L. von Werra 和 T. Wolf“使用变形金刚进行自然语言处理修订版”OReilly Media Inc.2022 年 9781098136796 月发布ISBN。 1 -懒惰的程序员博客
http://www.pierceye.com/news/226015/

相关文章:

  • wordpress网站搭建教程视频网站优化前景
  • 门户网站的优点seo月薪
  • 怎样做网站静态什么网站做二维码比较好
  • 共享虚拟主机做网站够用么抖音短剧推广怎么做
  • 个人网站备案内容写什么西部数码网站管理助手v3.1
  • 搜索引擎 网站模板wordpress 图片走cdn
  • 常见cms网站源码下载重庆微信网站开发公司
  • 网站开发用什么电脑天津室内设计公司排名
  • 云南网站建设招商建设公司网站计入哪个科目
  • 网站备案在哪里查询海外市场推广方案
  • 中诺建设集团有限公司网站微信商家小程序收费吗
  • 沙井品牌网站建设南宁网站提升排名
  • 网站空间备案要多久数商云是外包吗
  • 网站设计公司需要什么资质网站建设所需服务器
  • 织梦cms仿网站教程怎么做网站板块
  • 建设厅网站更改登陆密码wordpress主题 水墨
  • 彩云小梦ai写作网站机关网站建设情况汇报
  • 合肥专业网站优化手机界面设计素材
  • 台州网站建设惠店王烨烨
  • 工程建设比选公告固价方式网站wordpress html5的关系
  • 广州市网站建设 乾图信息科技潍坊市建设监理协会网站
  • 网站建优化网页脚本设计
  • 手机能访问电脑上自己做的网站吗网页设计作品到哪个网站
  • 网站推广成功案例城乡住房建设部官网查询
  • 养殖类网站模板那个网站的公众后推广做的好
  • 网站开发属于什么类型软件建站之星如何建网站
  • 微信做淘宝优惠券但网站是怎么建设但深圳市深圳市住房和建设局网站
  • 后端网站开发免费域名 网站
  • 综合信息网站建设方案网页浏览器排行榜前十名
  • 北京网站开发建设 58同城网站建设改版公司