当前位置: 首页 > news >正文

深圳做网站哪家专业公众号wordpress

深圳做网站哪家专业,公众号wordpress,海南省住房城乡建设厅网站首页,购买域名流程一、前言 随着ChatGPT热度的攀升#xff0c;越来越多的公司也相继推出了自己的AI大模型#xff0c;如文心一言、通义千问等。各大应用也开始内置AI玩法#xff0c;如抖音的AI特效#xff1b; 关联资源#xff1a;代码 GitHub、相关论文、项目Demo、产品文档、Grok Ai、gr…一、前言 随着ChatGPT热度的攀升越来越多的公司也相继推出了自己的AI大模型如文心一言、通义千问等。各大应用也开始内置AI玩法如抖音的AI特效 关联资源代码 GitHub、相关论文、项目Demo、产品文档、Grok Ai、grokstream、添加链接描述 二、开源版「ChatGPT Plus」 来自香港大学、XLang实验室、Sea AI实验室和Salesforce的研究者联合打造了一款用于真实世界生产力工具的开源智能体框架——OpenAgents并开源了全栈代码完整前后端OpenAgents还 提供线上的网页 demo (以及配套的开源代码)非程序员背景的普通用户也可轻松与智能体进行交互OpenAgents 支持真实世界环境和可控环境支持超过 200 的日常工具调用支持网页自动浏览。OpenAgents 的动机是作为一个开源平台旨在成为一个真实而全面的人类可交互的智能体评估平台根据真实需求真实用户与智能体互动以完成其任务并记录整个用户 - 智能体互动过程和用户反馈以供进一步评估。为使用和部署智能体提供目前包括三个关键智能体 用于 Python 和 SQL 的数据智能体200 多个工具使用的插件智能体自动网络浏览的 Web 智能体。 OpenAgents 用基于「大语言模型」LLMs的技术和全栈工程代码尝试近似复刻了 ChatGPT Plus 的功能。智能体可执行 Python/SQL 代码熟练调用工具也能上网找地图发帖子OpenAgents完全开源了代码包含从科研到逻辑代码到前端代码的一切。代码完善、易于拓展本地直接可以一键部署配套提供了含有丰富的使用案例的文档帮助研究者和开发者在模型上搭建自己的智能体和应用。一路从代码实现到后端前端全部开源让其变成了人人都能用的落地级别应用基于代码开源开发者和研究者可以定制适配业务需要修改若干行代码适配自己想要的模型改进、创造自己想要的功能甚至创造新的 Agent。 下面是OpenAgents 总览图面向用户的网页界面面向开发者的本地部署。 1数据分析对比 OpenAgents 和 ChatGPT 都能不错地完成用户对股价和交易的分析要求。不过 OpenAgents 可以自动搜索 Kaggle 数据集并下载ChatGPT 需要用户从本地上传。 2插件和画图 两者都能成功调用了 Wolfram 插件画出多种八面体的图片。 3网页调用 模拟测试用户想要查询 10 月 20 日从中国香港到纽约的机票OpenAgents 识别用户意图后直接跳转到 Skycanner像 “真人” 一样一边思考一边在网站中填入信息最后回到聊天页面总结信息而 ChatGPT 出于安全考虑保证可控性和调用插件类似在云端做网页浏览将最后搜寻到的信息返回。 三、马斯克的Grok Grok-1Open Release of Grok-1[1]是一款由 xAI 开发的大型语言模型拥有 3140 亿个参数属于混合专家模型MoEMixture-of-Experts model包含8个专家总参数量为314B3140亿处理Token时其中的两个专家会被激活激活参数量为86B。该模型的基础模型权重一堆训练/投喂的数据也称模型参数和网络架构现已在 GitHub:xai-org/grok-1上公开发布并未经过针对任何特定任务的微调即它是是2023年10月预训练阶段的原始模型避免引入任何自定义内核。开源协议遵循 Apache 2.0 许可证商用友好。引起参数庞大部署时注意需要一台拥有充足 GPU 内存的机器。Grok-1没有采用常见的Python、PyTorch或Tensorflow而是选用了Rust编程语言以及深度学习框架新秀JAX在底层技术上Grok-1选择使用了基于JAX一个由Google开发的用于高性能机器学习研究的库和Rust一种注重安全性和并发的系统编程语言的自定义训练堆栈。xAI称计划未来将Grok打造成多模态的大模型。 关联资源grok-博客、问题讨论、JAX、JAX GitHub、精度说明 Grok-1 相关特性 3140 亿参数314B parameters8 个专家的混合体Mixture of 8 Experts每个 token 使用 2 个专家2 experts used per token64 层64 layers查询的 48 个注意力头48 attention heads for queries键/值的 8 个注意力头8 attention heads for keys/values嵌入大小6144embeddings size: 6,144旋转嵌入rotary embeddings, RoPESentencePiece 分词器131,072 个令牌SentencePiece tokenizer; 131,072 tokens支持激活分片和 8 位量化Supports activation sharding and 8-bit quantization最大序列长度上下文8192 个 tokenMax seq length (context): 8,192 tokens Grok-1存储库提供了使用 JAX 框架(是一个专为加速器优化的数组计算和程序转换设计的 Python 库主要目标是高性能数值计算和大规模机器学习。)加载和运行 Grok-1 模型的示例代码。相对比Grok采用的框架和技术大多数知名的大模型比如OpenAI的GPT系列或Google的大模型通常是基于TensorFlow或PyTorch这样的主流深度学习框架开发的且有丰富的API和社区支持能让模型开发和训练变得更高效。而Grok-1将JAX和Rust的结合优势在于能够在模型性能、效率和可伸缩性方面有所优化。但这也意味着xAI可能需要投入更多的资源来维护和支持这种非主流的技术栈。 要运行这些示例用户需要先下载模型的检查点文件将其放置在指定的目录中将下载的 ckpt-0 目录放置在 checkpoint 目录中然后执行以下命令来安装依赖并运行示例基础模型大约有七百多个文件近 300G注意存储 git clone https://github.com/xai-org/grok-1.git cd grok-1# install pip install -r requirements.txt python run.py根据网络相关经验显示 Grok 的最低配置要求仅作为参考 #3[3]8bit量化的话可能需要8块H100在 FP16 精度下Grok-1 模型大约需要 630GB 至 700GB 的显存。即便配置了 8 个 NVIDIA H100 GPU能否成功运行该模型仍不确定。在进行某些优化如通过 GGUF[4] 工具之前这个模型可能无法在 CPU 上运行。 #24[5]你需要拥有 TPU 或 NVIDIA/AMD 品牌的 GPU且系统中必须装有 8 个此类设备。当前不支持 Apple silicon 设备如 M1、M2、M3 等。尽管 Jax 提供了一个 Metal 插件让你可以在苹果芯片上运行 JaxAccelerated JAX training on Mac[6]但在使用 dm_haiku[7] 依赖时仍会遇到问题。即便克服了这些技术障碍苹果芯片设备可能也没有足够的内存来运行如此庞大的 Grok-1 模型。 #25[8]需要 8 个 GPU每个 GPU 拥有 80GB 的显存典型的选择是 A100 型号。即使是使用 4 个 NVIDIA 4090 显卡也只能在 4 位量化的情况下勉强容纳模型的权重而无法实际运行模型。此外所需的硬件成本极高单个 A100 的价格约为 12,000 美元而一台配备 4 个 A100 GPU 的 NVIDIA DGX Station 的起价在 120,000 美元左右。因此尽管技术上可行但这样的配置对于大多数人来说是不切实际的。 下图是一组网络测试数据从整体测试效果来看这次开源的Grok-1可以说“比上不足比下有余”——在各个测试集中呈现的效果要比GPT-3.5、70b的LLAMA2和Inflection-1要好但距离Claude2和GPT-4仍然差了一大截。因Grok-1是xAI从零开始训练在2023年10月就已经结束了预训练且没有针对任何特定应用如对话进行微调所以目前无法直接体验到对话的应用。 四、Sora 五、MetaLlama 2 Meta联手微软开源了Llama 2是一系列预训练和微调的大型语言模型LLMs一共有7B、13B、70B三个版本Llama 2 的社区MIT许可证相当宽松且可商用。相比于 Llama 1 Llama 2 的训练数据多了 40%上下文长度也翻倍并采用了分组查询注意力机制。具体来说Llama 2预训练模型是在2 万亿的 token上训练的精调 Chat 模型是在100 万人类标记数据上训练的。相关评测显示70B模型与GPT-3.5-0301大致持平。 相关资源-Llama-2-7b代码、Llama2-Chinese、llama-recipes、llama2官网 六、谷歌GeminiGemma 它采用Gemini同款技术架构主打开源和轻量级免费可用、模型权重开源、允许商用同时笔记本可跑。 共有2B和7B两个版本7B版本使用多头注意力机制2B版本使用多查询注意力机制Gemma 2B/7B分别使用了2T和6T token进行训练主要来自网络文档、数学和代码不过这些数据不是多模态的。据相关测试数据表明性能全面超越开源标杆Llama 2目前模型也同步上线Hugging Chat可在线体验试玩。 关联资源gemma、博客、博客2、Gemma代码 七、法国Mistral AI 八、国内的开源项目 关联资源讯飞AI应用、Open-Sora社区
http://www.pierceye.com/news/873520/

相关文章:

  • 网站内外链怎么做公司建设包括哪些方面
  • 织梦网站环境搭建电子邮件怎么注册
  • 企业营销类专业网站app设计尺寸规范
  • 奈曼旗建设局网站建设旅游门户网站
  • 网站设计一般会遇到哪些问题wordpress文章关闭缩略图
  • 优质东莞网站制作公司thinkphp网站源码下载
  • 公司网站做一下多少钱最吉利旺财的公司名字
  • 网站建设维护及使用管理办法营销策划的步骤
  • 优秀网站设计案例在家开个人工作室违法吗
  • 腾讯云建设网站wordpress仿知乎社区
  • 《网站开发技术》模板linchong.wordpress
  • 找做企业网站论文旅游网站建设
  • 类似情侣空间的网站开发seo外推软件
  • 网站建设策划方案怎么写工业品网络营销
  • 上海本地网站建设微信网站怎么建设
  • 江苏华江建设集团网站wordpress开发找工作
  • 家政服务网站源码自己做网站好还是让别人做
  • 手机网站用什么系统做网站在什么地方发帖子呢
  • 虚拟电脑可以做网站吗中国建设行业信息网站
  • 网站设计建设合同公司网页设计实例教程
  • 仿起点小说网站开发网站图片优化工具
  • 在线做logo的网站泉州做网站哪家好
  • 知名企业网站人才招聘情况如何网络系统集成
  • 做灯带的网站重庆有哪些好玩的地方
  • 小孩子做手工做游戏的网站百度账号设置
  • 大庆做网站公司巩义网站建设方案报价
  • 该网站受海外服务器保护品牌营销型网站建设公司
  • 免费做一建或二建题目的网站郑州企业建站系统模板
  • 想自己建个网站徐州做网站软件
  • 蓝色系网站设计企业应对承包商的施工方案尤其是