当前位置: 首页 > news >正文

做网站中的镜像是什么推广资源seo

做网站中的镜像是什么,推广资源seo,WordPress评论楼层,美仑-专门做服装的网站TinyLlama-1.1B 小模型在边缘设备上有着广泛的应用#xff0c;如智能手机、物联网设备和嵌入式系统#xff0c;这些边缘设备通常具有有限的计算能力和存储空间#xff0c;它们无法有效地运行大型语言模型。因此#xff0c;深入探究小型模型显得尤为重要。 来自新加坡科技…TinyLlama-1.1B 小模型在边缘设备上有着广泛的应用如智能手机、物联网设备和嵌入式系统这些边缘设备通常具有有限的计算能力和存储空间它们无法有效地运行大型语言模型。因此深入探究小型模型显得尤为重要。 来自新加坡科技设计大学SUTD的研究者近日推出了 TinyLlama该语言模型的参数量为 11 亿在大约 3 万亿个 token 上预训练而成。 论文地址https://arxiv.org/pdf/2401.02385.pdf 项目地址https://github.com/jzhang38/TinyLlama/blob/main/README_zh-CN.md TinyLlama 以 Llama 2 架构和分词器tokenizer为基础这意味着 TinyLlama 可以在许多基于 Llama 的开源项目中即插即用。此外TinyLlama 只有 11 亿的参数体积小巧适用于需要限制计算和内存占用的多种应用。 该研究表示仅需 16 块 A100-40G 的 GPU便可在 90 天内完成 TinyLlama 的训练。 该项目从上线开始持续受到关注目前星标量达到 4.7K。 TinyLlama 模型架构详细信息如下所示 训练细节如下 研究者表示这项研究旨在挖掘使用较大数据集训练较小模型的潜力。他们重点探究在用远大于扩展定律scaling law建议的 token 数量进行训练时较小模型的行为表现。 具体来说该研究使用大约 3 万亿个 token 训练具有 1.1B 个参数的 Transformer 仅解码器模型。据了解这是第一次尝试使用如此大量的数据来训练具有 1B 参数的模型。 尽管规模相对较小但 TinyLlama 在一系列下游任务中表现相当出色它的性能显著优于同等大小的现有开源语言模型。具体来说TinyLlama 在各种下游任务中都超越了 OPT-1.3B 和 Pythia1.4B 。 此外TinyLlama 还用到了各种优化方法如 flash attention 2、FSDP Fully Sharded Data Parallel 、 xFormers 等。 在这些技术的加持下TinyLlama 训练吞吐量达到了每 A100-40G GPU 每秒 24000 个 token。例如TinyLlama-1.1B 模型对于 300B token 仅需要 3,456 A100 GPU 小时而 Pythia 为 4,830 小时MPT 为 7,920 小时。这显示了该研究优化的有效性以及在大规模模型训练中节省大量时间和资源的潜力。 TinyLlama 实现了 24k tokens / 秒 / A100 的训练速度这个速度好比用户可以在 8 个 A100 上用 32 小时训练一个具有 11 亿参数、220 亿 token 的 chinchilla-optimial 的模型。同时这些优化也大大减少了显存占用用户可以把 11 亿参数的模型塞入 40GB 的 GPU 里面还能同时维持 16k tokens 的 per-gpu batch size。只需要把 batch size 改小一点 你就可以在 RTX 3090/4090 上面训练 TinyLlama。  实验中该研究主要关注具有纯解码器架构的语言模型包含大约 10 亿个参数。具体来说该研究将 TinyLlama 与 OPT-1.3B、Pythia-1.0B 和 Pythia-1.4B 进行了比较。 TinyLlama 在常识推理任务上的性能如下所示可以看出 TinyLlama 在许多任务上都优于基线并获得了最高的平均分数。 此外研究者在预训练期间跟踪了 TinyLlama 在常识推理基准上的准确率如图 2 所示TinyLlama 的性能随着计算资源的增加而提高在大多数基准中超过了 Pythia-1.4B 的准确率。 表 3 表明与现有模型相比TinyLlama 表现出了更好的问题解决能力。 手快的网友已经开始整活了运行效果出奇得好在 GTX3060 上运行能以 136 tok / 秒的速度运行。 「确实是快」 小模型 LiteLlama 由于 TinyLlama 的发布SLM小型语言模型开始引起广泛关注。德克萨斯工农大学的 Xiaotian Han 发布了 SLM-LiteLlama。它有 460M 参数由 1T token 进行训练。这是对 Meta AI 的 LLaMa 2 的开源复刻版本但模型规模显著缩小。 项目地址https://huggingface.co/ahxt/LiteLlama-460M-1T LiteLlama-460M-1T 在 RedPajama 数据集上进行训练并使用 GPT2Tokenizer 对文本进行 token 化。作者在 MMLU 任务上对该模型进行评估结果如下图所示在参数量大幅减少的情况下LiteLlama-460M-1T 仍能取得与其他模型相媲美或更好的成绩。 以下为该模型的性能表现更详细内容请参阅 https://huggingface.co/datasets/open-llm-leaderboard/details_ahxt__llama2_xs_460M_experimental
http://www.pierceye.com/news/22086/

相关文章:

  • 网站建设实习小结用vs2008做网站
  • 网站开发 写文档中信建设有限责任公司资阳分公司
  • 网站开发教程云盘app软件制作教程
  • 全光网络架构图重庆百度关键词优化软件
  • 泰安网络软件公司搜索引擎优化的目标
  • 小鱼儿外贸网站吉林省建设招标网站
  • 案例展示在网站中的作用成都设计公司排行
  • 万网主机怎么上传网站网站地址ip域名查询
  • 能自己做效果图的网站公司地址查询网站
  • 保定哪个公司做网站好梅州建站哪里好
  • 农产品网站建设结构建立个大型网站需要多少投入
  • 加急网站备案长沙做网站报价
  • 做网站至少多少钱建筑网站图片
  • seo网站代码优化企业制作小程序
  • 建立营销型网站网推软件
  • 上传网站图片不显示首页无法删除wordpress
  • 网站建设初级教程教你做网站
  • 安康电商网站建设做鼻翼整形整形的网站
  • 单页销售网站源码有谁做彩票网站
  • 阿里云 一键wordpress哈尔滨排名seo公司
  • 公司网站后台维护怎么做网站建设哪家好 上海
  • 快速建立平台网站开发网站模板设计网页seo技术
  • 建立网站最先进的互联网技术有哪些常州网站制作培训
  • 全国免费自学网站wordpress php转html
  • 物流网站免费源码杭州哪家网站建设公司好点
  • 什么是网站开发流程17.zwd一起做网站池尾站
  • 岳阳网站建设设计博客型网站建设
  • 怎么创建网站?最好的免费网站空间
  • 怎么利用网站赚广告费WordPress连接不上FTP
  • 网站空间不足深圳市区是哪个区