当前位置: 首页 > news >正文

天天向上网站建设连云港专业网站制作

天天向上网站建设,连云港专业网站制作,seo网站监测,php做的网站模版近几年AI的飞速发展#xff0c;着实带来了很大的冲击#xff0c;但是其实现在AI并没有完全的跨界#xff0c;仍然只是在小圈子内“自嗨”。不过相对于之前已经有了很大的不同了 本文就针对当前的大模型现状#xff0c;来说一下工程化落地的相关事情#xff0c;也是随感而发…近几年AI的飞速发展着实带来了很大的冲击但是其实现在AI并没有完全的跨界仍然只是在小圈子内“自嗨”。不过相对于之前已经有了很大的不同了 本文就针对当前的大模型现状来说一下工程化落地的相关事情也是随感而发和总结一下 这里不对AI本身做过多的深入更多聚焦于上层应用 大语言模型概述 当我们谈论大型语言模型时我们指的是一种能够以类似人类语言的方式”说话”的软件。这些模型非常惊人–它们能够获取上下文并生成不仅连贯而且感觉像是来自真实人类的回复 这些语言模型通过分析大量的文本数据并学习语言使用的模式来工作。它们利用这些模式生成的文本几乎无法与人类所说或写的内容区分开来 如果您曾与虚拟助手进行聊天或与人工智能客户服务代理进行互动您可能会在不知不觉中与大型语言模型互动过!这些模型有广泛的应用从聊天机器人到语言翻译到内容创作等 什么是大语言模型 定义大语言模型Large Language Model, LLM是一种预训练的自然语言处理NLP模型通常具有数十亿甚至数千亿的参数能够理解和生成自然语言文本。一个成熟大语言模型的训练数据是海量的功能大语言模型能够执行多种语言任务如文本分类、情感分析、机器翻译、文本摘要、问答系统等技术基础基于变换器Transformer架构利用自注意力机制Self-Attention处理序列数据发展从早期的RNN、LSTM到现在的BERT、GPT等模型参数数量和性能不断提升 什么是机器学习 定义机器学习是人工智能的一个分支它使计算机系统能够从数据中学习并做出决策或预测而无需明确编程类型包括监督学习、无监督学习、半监督学习和强化学习应用广泛应用于图像识别、语音识别、推荐系统、预测分析等领域关键概念特征选择、模型训练、过拟合与欠拟合、模型评估等。 什么是深度学习 定义深度学习是机器学习的一个子集它使用类似于人脑的神经网络结构通过多层深层的非线性变换来学习数据的复杂模式。核心组件神经网络层、激活函数、损失函数、优化算法。架构包括卷积神经网络CNN、循环神经网络RNN、长短期记忆网络LSTM和变换器Transformer等。应用在图像和语音识别、自然语言处理、自动驾驶等领域取得了革命性的进展 理解大语言模型 为什么在上面有了大语言模型概述之后我还需要单独开一个章节来说“理解”大语言模型呢因为这能让你更好的知道大语言模型是什么东西 理解它的上限也能方便我们更好的做应用层 首先可以笼统的讲机械学习就是找到一个特殊的复杂的“函数”能够将我们的输入转为期望的输出。比如我们期望输入1输出5输入2输出10那么这个函数可能就是y2*x。或者如果我们输入一张猫的图片我希望它输出“猫”这个字又或者我输入“hi”它会输出“hello”等等 这其实本质可以看做是一个数学问题当然实际会比上面的举例复杂很多 历史沿革 1、早期人们总是希望让机器和人一样思考当时人们主推“鸟飞派”基于仿生学就是人们看到鸟飞就学习它扑棱翅膀能飞起来那么就希望能让机器也和人一样思考。但是这个效果不是很好没有“世界知识”世界知识就是你大脑里默认的众所周知的不用思考的本能认知的内容比如“水往低处流”这一类世界知识是海量的并且难以解决一词多意的问题。总体来说模仿人类的大脑神经过于复杂单纯用代码和函数很难实现 2、人工智能2.0时代数据驱动实现“基于统计的人工智能”。为什么在GPT3的横空出世之后各种大模型如雨后春笋一样的冒出来了其实大部分公司很早就在研究AI了但是早期大家都是摸着石头过河虽然有很多方案和思考但是都不敢加大投入到梭哈的地步都是在一个限定的范围内去研究。GPT3的出现让大家看到了某一种方式是可行的就是使用海量的数据去计算统计用量变引起质变于是有了成功案例大家才知道哦原来这种方式是可行的于是都开始加大投入走这条路 3、大数据可以让机器智能水平得到飞跃大量数据的使用最大意义在于让计算机完成一些过去只有人类才能完成的事情 核心思想基于大量数据中的统计信息“训练参数”以拟合结果本质是“统计”而非“仿生”主要优势随着数据量的积累系统会持续提升变的越来越好核心要素“大数据”大量、多维度、全面的大数据基于大量、多维度、全面的大数据下的“死记硬背” 通过统计人工智能将“智能问题”转变成了“数据问题”使得计算 机得以通过对大数据的学习解决“不确定问题” 关键 所以问题的关键变成了一个概率问题。当前大模型都是从海量的数据中统计出一个概率来判断下一个文字或者中间某一段文字最大的概率是什么然后输出出来。其实本质也并不是生成新的东西而是推理 比如问他中国的首都是哪里通过算法提取到关键字是中国的首都是 那么大模型根据海量的数据中计算出 中国的首都是 后面紧跟着的字是北京出现的概率最大所以就会输出正确的结果 所以训练大模型的数据质量也是非常关键的同时我们也能差不多联想到大模型的上限 AIGC系统 AIGC即人工智能生成内容Artificial Intelligence Generated Content是一种利用机器学习算法自动生成各种类型内容的技术包括文本、图像、音频和视频等。AIGC系统通过分析大量数据学习语言、视觉和音频模式进而能够创造出新的、与人类创作内容相似甚至无法区分的内容 所有的数字化工作很可能被“大模型”颠覆 而我们目前的应用层工作大部分都属于AIGC系统 GPT3.5之后已经大模型已经可以使用工具 • 插件和联网弥补大模型自身记忆不足标志着LLM正式开始学习使用工具 • 函数功能 LLM学会调用API来完成复杂任务这是后端工程师主要工作给Gorilla指令会自动调用diffusion等模型实现画图、对话等多模态任务 • 让模型“思考”引导大模型具有逻辑能力核心在于“计划 记忆 工具” AI工程化项目的落地 其实AI项目的落地也和普通项目一样一开始的立项核心肯定是要清楚这个项目是为了解决什么核心问题然后再去扩展思考再然后才是需求分析技术选型等。我们针对应用层就不太会设计大模型的研究一般都是直接调用API或者部署本地开源的大模型 落地的方法 Prompt工程第一阶段 稍微接触过AI的可能都知道prompt在2022-2023年对AI的初期研究还是以这个为基础就是怎么样提问能让AI更理解你的意思注意你的关键点然后给出质量更高的回答 门槛相对来说较低大部分的大模型应用都是在设计Prompt。能满足一部分需求取决于基础模型的能力 RAG检索第二阶段 RAGRetrieval-Augmented Generation检索增强生成是一种结合了检索模型和生成模型的人工智能技术。它通过从知识库或数据库中检索相关信息并将其与用户查询结合来增强大型语言模型LLM的回答能力。RAG技术可以提高AI应用的准确性和相关性尤其是在处理特定领域知识或需要最新信息的场景中 RAG的工作原理主要包括两个步骤 检索Retrieval根据用户的查询RAG使用检索模型在知识库中搜索并提取最相关的信息或文档。生成Generation检索到的信息被用于生成模型的输入与用户查询一起生成模型据此产生回答或内容。 RAG技术的优势在于 知识更新能够访问最新的信息而不仅仅局限于模型训练时的知识减少幻觉通过外部知识源辅助减少LLM生成不准确或虚假信息的倾向数据安全性允许企业使用私有数据无需将数据上传到第三方平台成本效益相比重新训练或微调大型模型RAG提供了一种更经济的解决方案 训练特定功能模型第三阶段 但是这个门槛较高对算力、数据、算法都有一定的要求 落地的业务设计 步骤一构思与探索 目标: 进行可行性验证根据业务需求设计原型并构建PromptFlow来测试关键假设 核心输入: 明确的业务目标关键输出: 验证大型语言模型LLM是否能够满足任务需求确立或否定关键假设关键行动计划: 明确定义业务用例选择适合的基础大模型并准备必要的数据以供后续的微调SFT或其他用途设计并构建PromptFlow形成并测试可行性假设 步骤二构建与增强 目标: 在更大范围的数据集上评估解决方案的稳健性并通过技术如微调SFT和检索增强生成RAG来增强模型性能 核心输入: 业务目标结合初步方案步骤一的成果关键输出: 一个成熟的业务解决方案准备部署到生产系统关键行动计划: 在样本数据上验证PromptFlow的有效性评估并优化PromptFlow探索更优的提示prompt和工具若达到预期目标扩展到更大数据集进行测试并通过SFT、RAG等技术进一步提升效果 步骤三持续运营 目标: 确保AIGC系统稳定运行集成监控和警报系统实现持续集成和持续部署CI/CD 核心输入: 一个能够解决特定问题的AIGC系统关键输出: 集成了监控、警报系统的生产级程序以及CI/CD流程。关键行动计划: 部署AIGC系统集成监控和警报功能确保系统能力内嵌于应用之中确立应用运营机制包括持续迭代、部署和更新 通过这一流程我们确保了从概念验证到生产部署的每一步都是精确、可控并且以业务目标为导向 Prompt技术 一、主要内容片段的驱动作用 主要内容片段是与指令结合使用的文本基础能够显著提升指令的有效性。 主要内容的定义 主要内容是模型处理或转换的核心文本通常与指令配合以实现特定目标。 应用示例 示例1提供一段维基百科文本【正文】并附加指令“请总结上述内容”。示例2给出一个包含啤酒信息的表格【正文】指令为“列出表中所有度数小于6度的啤酒”。 二、主要内容的实现策略 实现主要内容的具体方法包括 示例Example通过提供完成任务的示例而非直接指令让模型自主推断所需执行的操作。线索Cue使用带有线索的说明引导模型按步骤进行推理从而得出答案。模板Templates提供带有占位符的可重复使用提示配方允许根据特定用例进行定制。 三、示例的力量Example 通过向模型展示如何根据给定指令生成输出模型能够推断输出模式无论是零样本、单样本还是少样本学习。 组成部分 整体任务描述。一系列所需输出的示例。新示例的引导作为后续任务的起点。 四、线索的引导作用Cue 通过向大型模型提供线索引导其按照明确的方向进行逻辑推理类似于提供步骤公式帮助模型逐步获得答案。 五、模板的定制价值Template 模板的价值在于为特定应用领域创建和发布提示库这些提示模板已经针对应用程序的特定上下文或示例进行了优化。 优化提示使响应对目标用户群体更加相关和准确。资源参考OpenAI API的示例页面提供了丰富的模板资源。模型角色赋予通过指定模型身份角色如系统、用户、助手等增强模型对任务相关性的理解。 进阶的prompt示例 # 职位描述数据分析助手 ## 角色 我的主要目标是为用户提供专家级的数据分析建议。利用详尽的数据资源告诉我您想要分析的股票提供股票代码。我将以专家的身份为您的股票进行基础分析、技 术分析、市场情绪分析以及宏观经济分析。 ## 技能 ### 技能1使用Yahoo Finance的Ticker搜索股票信息 ### 技能2使用News搜索目标公司的最新新闻 ### 技能3使用Analytics搜索目标公司的财务数据和分析 ## 工作流程 询问用户需要分析哪些股票并按顺序执行以下分析 **第一部分基本面分析财务报告分析 *目标1对目标公司的财务状况进行深入分析。 *步骤 1. 确定分析对象 记录 1.1介绍{{company}}的基本信息 2. 获取财务报告使用工具 Ticker, News, Analytics- 获取由Yahoo Finance整理的目标公司{{company}}最新财务报告的关键数据。 记录 1.2记录分析结果获取日期和来 源链接 3. 综合分析和结论 - 全面评估公司的财务健康、盈利能力、偿债能力和运营效率。确定公司面临的主要财务风险和潜在机会。 -记录 1.3记录总体结论、风险和机会。 整理并输出[记录 1.1] [记录 1.2] [记录 1.3] 第二部分基本面分析行业 *目标2分析目标公司{{company}}在行业中的地位和竞争力。 *步骤 1. 确定行业分类 - 搜索公司信息确定其主要业务和行业。 -记录 2.1公司的行业分类 2. 市场定位和细分分析 - 了解公司在行业中的市场份额、增长率和竞争对手进行分析。 -记录 2.2公司的市场份额排名、主要竞争对手、分析结果和洞察等。 3. 行业分析- 分析行业的发展趋势。 - 记录 2.3行业的发展趋势。 整理并输出[记录 2.1] [记录 2.2] [记录 2.3] 整合以上记录并以投资分析报告的形式输出所有分析。使用Markdown语法进行结构化输出。 ## 限制 - 使用的语言应与用户的语言相同。 - 避免回答有关工作工具和规章制度的问题。 - 使用项目符号和Markdown语法给出结构化回答逐步思考。首先介绍情况然后分析图表中的主要趋势。RAG介绍与核心步骤 “RAG易用难精”用上很容易用好很难 核心驱动力 在大型语言模型LLM的应用中存在两个主要的挑战 实时更新难题LLM的信息难以实现实时更新因为重新训练模型需要巨大的计算资源和成本。机密性问题敏感信息如公司产品手册由于保密性要求不能直接整合进LLM中。 使用RAG的优势 与标准微调SFT相比检索增强生成RAG提供了以下优势 信息丰富性通过接入内部知识库RAG确保了文本回答的新颖性和相关性显著提升了特定领域任务的性能。幻觉减少RAG使用的信息是可验证的有效减轻了LLM在生成文本时可能出现的幻觉问题。成本效益与LLM的微调相比RAG提供了一种更为经济的解决方案。 RAG的核心步骤 RAG的实施包括以下关键步骤 数据采集与清洗收集必要的数据并进行清洗确保数据质量文档分块将文档分割成易于处理的块同时保留语义完整性Embedding使用嵌入技术将文本转换为向量表示以便于检索创建索引构建索引以优化检索过程快速定位相关信息检索根据用户查询从索引中检索最相关的信息重排根据检索到的信息和用户查询的相关性对结果进行重新排序 预处理阶段 在构建知识库的初期以下步骤是关键 分块获取文档并将其切分成较小的片段或称为“chunks”。这有助于索引更具体的信息并适应有限的上下文窗口。构建向量索引利用OpenAI模型等工具为每个文档片段计算嵌入向量并将这些片段与其嵌入向量一起存储在向量索引中为高效的检索打下基础。 运行阶段 当系统处于活跃状态时以下操作定义了其运行机制 基于Vector DB的相似性检索 接收到查询或指令后计算其嵌入向量。利用向量数据库执行相似性搜索找出语义上与查询接近的文档。对检索到的文档进行排名和整理考虑上下文窗口限制并构建将要发送到语言模型的提示。 创建知识库核心步骤 构建向量数据库 向量数据库专门设计用于存储、管理和搜索嵌入向量与传统数据库不同它存储文档的数值表示形式便于AI系统处理。 从文本到嵌入 将文本分块并转换为向量嵌入为存储和检索优化数据。 检索与向量搜索核心步骤 检索 系统快速定位索引中满足条件的文档的过程包括关键字搜索、语义搜索、向量搜索以及它们的混合形式 向量相似度 在向量搜索中根据嵌入模型计算查询向量与数据库中向量的相似度 搜索索引召回 构建索引以存储嵌入实现在数据库中快速检索最相似的文档块 重新排序排序 根据相关性对搜索结果进行排序确保最相关的信息被优先输入到语言模型中进行进一步处理 RAG的核心关键点 元数据在搜索中的关键作用 元数据是优化搜索结果的有力工具提供确切信息以辅助搜索过程 日期用于优先检索最新或特定时间段的文档。标签/类别通过标签或类别筛选或排序结果确保内容与查询高度相关。来源/作者依据来源或作者的权威性来提升搜索结果的相关度。 元数据的整合可显著提升搜索的准确性和相关性。 元数据合成 在元数据缺失的情况下可通过LLM的预处理对齐生成以补充元数据信息。关键词搜索的重要性 关键词搜索是对语义相似度搜索的重要补充特别是在寻找专有名称或特定短语时。此方法确保了文档包含用户查询的确切信息。API和插件在检索中的应用 除了传统的搜索技术API调用可以获取并集成相关数据增强LLM的上下文窗口。例如GPT插件作为API的新兴标准可以通过LangChain或Semantic Kernel等工具轻松集成提供强大的搜索和检索功能。排名与集合编译 鉴于上下文窗口大小的限制需对检索到的文档进行精细的排名和选择。通过预处理或后处理技术如摘要生成或文本语义组合确保信息的适量和适宜性。排序的重要性 对检索结果进行排序是确保信息相关性和准确性的关键步骤。格式与元数据 LLM对数据格式极为敏感特别是当需要精确结构时。使用JSON或YAML等格式可以为LLM提供清晰的结构化内容指示。权衡因素速度、成本、质量 在RAG实施过程中速度、成本和准确性质量是必须综合考量的关键因素。合理的权衡可以确保在有限资源下实现最优的搜索和生成效果。
http://www.pierceye.com/news/897248/

相关文章:

  • 门户网站关键词旅游网站开发报价单
  • 哪个网站做视频收益高社区服务呼叫系统 网站的建设
  • 网站是如何制作的工厂 电商网站建设
  • 展览设计网站有哪些南海网站智能推广
  • 贵阳做网站需要多少钱凡科网站建设完成下载下载器
  • 虚拟机上做钓鱼网站照片网站怎么做
  • 建网页和建网站编程猫少儿编程app下载
  • 网站首页介绍cms系统架构
  • 建设厅的工程造价网站东莞网站优化方式
  • 微信网站模板源码wordpress如何编辑
  • 做网站p图工具公司网站建设教程
  • 网站 选项卡 图标苏州网站网页设计
  • 柳州网站建设优化推广wordpress 不显示菜单
  • 网站死循环网站备案和域名备案区别
  • 做网站要学会什么语言装修公司网站模板下载
  • 门户网站建设自查报告网站关键词快速排名技术
  • 如何建网站费用多少全国工商企业查询平台
  • 兰州新区建站什么是网络营销取得成功的基础
  • 南昌 网站 公司wordpress迁移后媒体库丢失
  • 做移动网站点击软件cnzz网站建设
  • 高质量网站外链建设大揭秘做网站之前需要准备什么条件
  • 睢宁做网站百度一下做网站
  • 做国外购物网站国家高职示范校建设网站
  • 网站建设福州公司山西省大同市网站建设公司
  • 浙江网站建设推荐wordpress 增加小工具
  • 个人网站是商业的吗北京网站建设设计
  • 手机网站收费怎么停止网站
  • 网站建设 金疙瘩计划杭州小程序制作公司排行榜
  • 德泰诺网站建设软件著作权登记证书
  • 商标设计网页seo外包公司兴田德润官方地址