当前位置: 首页 > news >正文

东莞网站建设都用哪个好最新中高风险地区名单

东莞网站建设都用哪个好,最新中高风险地区名单,简单的网站开发工具,wordpress告白墙NL2SQL实践系列(1)#xff1a;深入解析Prompt工程在text2sql中的应用技巧 NL2SQL基础系列(1)#xff1a;业界顶尖排行榜、权威测评数据集及LLM大模型#xff08;Spider vs BIRD#xff09;全面对比优劣分析[Text2SQL、Text2DSL] NL2SQL基础系列(2)#xff1a;主流大模型…NL2SQL实践系列(1)深入解析Prompt工程在text2sql中的应用技巧 NL2SQL基础系列(1)业界顶尖排行榜、权威测评数据集及LLM大模型Spider vs BIRD全面对比优劣分析[Text2SQL、Text2DSL] NL2SQL基础系列(2)主流大模型与微调方法精选集Text2SQL经典算法技术回顾七年发展脉络梳理 NL2SQL进阶系列(1)DB-GPT-Hub、SQLcoder、Text2SQL开源应用实践详解 NL2SQL进阶系列(2)DAIL-SQL、DB-GPT开源应用实践详解[Text2SQL] NL2SQL进阶系列(3)Data-Copilot、Chat2DB、Vanna Text2SQL优化框架开源应用实践详解[Text2SQL] NL2SQL进阶系列(4)ConvAI、DIN-SQL等16个业界开源应用实践详解[Text2SQL] NL2SQL任务的目标是将用户对某个数据库的自然语言问题转化为相应的SQL查询。随着LLM的发展使用LLM进行NL2SQL已成为一种新的范式。在这一过程中如何利用提示工程来发掘LLM的NL2SQL能力显得尤为重要。 prompt的组成包四个元素 Instruction指令必须Context上下文信息可选Input Data需要处理的数据可选Output Indicator要输出的类型或格式可选 一个面向复杂任务的prompt的一般都包含InstructionContextInput DataOutput Indicator。 所以面向大语言模型的开发应用过程就是如下公式 LMM(Instruction Context Input Data Output Indicator) Output prompt engineering 就是写好这四块东西InstructionContextInput DataOutput Indicator,让模型的输出Output越准越好 1.text2sql prompt prompt 现在你是一个数据分析师,SQL大神,请根据用户提供的表的信息以及用户的需求写出效率最高的SQL,表信息如下表名students;字段id,name,age,location用户需求:统计一下姓名年龄大于23,姓名包含andy且在beijing,的的学生个数。并且要求输出的SQL以#开头,以#结尾样例如下#SELECT * FROM table##SELECT COUNT(*) FROM table#注意不需要分析过程直接给出SQL语句inputttext human:{}aibot:.format(prompt)输出结果 #SELECT COUNT(*) FROM students WHERE age 23 AND name LIKE ‘%andy%’ AND location ‘beijing’# 2.大模型text2sql 微调教程 LLM大模型https://huggingface.co/baichuan-inc/Baichuan-13B-Chat 训练数据https://huggingface.co/datasets/Clinton/Text-to-sql-v1 Baichuan-13B 是由百川智能继 Baichuan-7B 之后开发的包含 130 亿参数的开源可商用的大规模语言模型在权威的中文和英文 benchmark 上均取得同尺寸最好的效果。本次发布包含有预训练 (Baichuan-13B-Base) 和对齐 (Baichuan-13B-Chat) 两个版本。Baichuan-13B 有如下几个特点 更大尺寸、更多数据Baichuan-13B 在 Baichuan-7B 的基础上进一步扩大参数量到 130 亿并且在高质量的语料上训练了 1.4 万亿 tokens超过 LLaMA-13B 40%是当前开源 13B 尺寸下训练数据量最多的模型。支持中英双语使用 ALiBi 位置编码上下文窗口长度为 4096。同时开源预训练和对齐模型预训练模型是适用开发者的“基座”而广大普通用户对有对话功能的对齐模型具有更强的需求。因此本次开源同时发布了对齐模型Baichuan-13B-Chat具有很强的对话能力开箱即用几行代码即可简单的部署。更高效的推理为了支持更广大用户的使用本次同时开源了 int8 和 int4 的量化版本相对非量化版本在几乎没有效果损失的情况下大大降低了部署的机器资源门槛可以部署在如 Nvidia 3090 这样的消费级显卡上。开源免费可商用Baichuan-13B 不仅对学术研究完全开放开发者也仅需邮件申请并获得官方商用许可后即可以免费商用。 数据格式如下 Below are sql tables schemas paired with instruction that describes a task. Using valid SQLite, write a response that appropriately completes the request for the provided tables. ### Instruction: provide the number of patients whose diagnoses icd9 code is 60000? ### Input: CREATE TABLE procedures (\n subject_id text,\n hadm_id text,\n icd9_code text,\n short_title text,\n long_title text\n)\n\nCREATE TABLE prescriptions (\n subject_id text,\n hadm_id text,\n icustay_id text,\n drug_type text,\n drug text,\n formulary_drug_cd text,\n route text,\n drug_dose text\n)\n\nCREATE TABLE demographic (\n subject_id text,\n hadm_id text,\n name text,\n marital_status text,\n age text,\n dob text,\n gender text,\n language text,\n religion text,\n admission_type text,\n days_stay text,\n insurance text,\n ethnicity text,\n expire_flag text,\n admission_location text,\n discharge_location text,\n diagnosis text,\n dod text,\n dob_year text,\n dod_year text,\n admittime text,\n dischtime text,\n admityear text\n)\n\nCREATE TABLE lab (\n subject_id text,\n hadm_id text,\n itemid text,\n charttime text,\n flag text,\n value_unit text,\n label text,\n fluid text\n)\n\nCREATE TABLE diagnoses (\n subject_id text,\n hadm_id text,\n icd9_code text,\n short_title text,\n long_title text\n) ### Response:SELECT COUNT(DISTINCT demographic.subject_id) FROM demographic INNER JOIN diagnoses ON demographic.hadm_id diagnoses.hadm_id WHERE diagnoses.icd9_code 60000 训练代码text2sqlBaichuan13B.py 2.1 姜子牙系列模型 Ziya-LLaMA-13B-v1.1Ziya-LLaMA-13B-v1Ziya-LLaMA-7B-RewardZiya-LLaMA-13B-Pretrain-v1 姜子牙通用大模型V1是基于LLaMa的130亿参数的大规模预训练模型具备翻译编程文本分类信息抽取摘要文案生成常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。 https://huggingface.co/IDEA-CCNL/Ziya-LLaMA-13B-v1 https://github.com/IDEA-CCNL/Ziya-Coding https://www.modelscope.cn/models/Fengshenbang/Ziya-LLaMA-13B-v1/summary 继续预训练 Continual pretraining 原始数据包含英文和中文其中英文数据来自openwebtext、Books、Wikipedia和Code中文数据来自清洗后的悟道数据集、自建的中文数据集。在对原始数据进行去重、模型打分、数据分桶、规则过滤、敏感主题过滤和数据评估后最终得到125B tokens的有效数据。 为了解决LLaMA原生分词对中文编解码效率低下的问题在LLaMA词表的基础上增加了7k个常见中文字通过和LLaMA原生的词表去重最终得到一个39410大小的词表并通过复用Transformers里LlamaTokenizer来实现了这一效果。 在增量训练过程中使用了160张40GB的A100采用2.6M tokens的训练集样本数量和FP 16的混合精度吞吐量达到118 TFLOP per GPU per second。因此能够在8天的时间里在原生的LLaMA-13B模型基础上增量训练110B tokens的数据。 多任务有监督微调 Supervised finetuning 在多任务有监督微调阶段采用了课程学习curiculum learning和增量训练continual learning的策略用大模型辅助划分已有的数据难度然后通过“Easy To Hard”的方式分多个阶段进行SFT训练。SFT训练数据包含多个高质量的数据集均经过人工筛选和校验 Self-Instruct构造的数据约2MBELLE、Alpaca、Alpaca-GPT4等多个数据集内部收集Code数据300K包含leetcode、多种Code任务形式内部收集推理/逻辑相关数据500K推理、申论、数学应用题、数值计算等中英平行语料2M中英互译语料、COT类型翻译语料、古文翻译语料等多轮对话语料500KSelf-Instruct生成、任务型多轮对话、Role-Playing型多轮对话等 Ziya2-13B-Chat采用human:和bot:作为用户和模型的角色识别Prompt使用\n分隔不同角色对话内容。 在推理时需要将human:和bot:作为前缀分别拼接至用户问题和模型回复的前面并使用\n串连各对话内容。Ziya2-13B-Chat adopts human: and bot: as the role recognition prompts for users and models, and uses \n to separate the contents of different roles. When doing inference, human: and bot: need to be concatenated as prefixes in front of the users question and the models reply respectively, and \n is used to join the contents of each role.以下为具体使用方法 Following are the details of how to use it: from modelscope import AutoTokenizer, AutoModelForCausalLM, snapshot_download import torchdevice torch.device(cuda)messages [{role: user, content: 手机如果贴膜贴了一张防指纹的钢化膜那屏幕指纹解锁还有效吗}] user_prefix human: assistant_prefix bot: separator \nprompt [] for item in messages:prefix user_prefix if item[role] user else assistant_prefixprompt.append(f{prefix}{item[content]}) prompt.append(assistant_prefix) prompt separator.join(prompt)model_dir snapshot_download(Fengshenbang/Ziya2-13B-Chat, revisionmaster) model AutoModelForCausalLM.from_pretrained(model_dir,torch_dtypetorch.bfloat16).to(device) tokenizer AutoTokenizer.from_pretrained(model_dir, use_fastFalse) input_ids tokenizer(prompt, return_tensorspt).input_ids.to(device) generate_ids model.generate(input_ids,max_new_tokens512, do_sample True, top_p 0.9, temperature 0.85, repetition_penalty1.05, eos_token_idtokenizer.encode(/s), ) output tokenizer.batch_decode(generate_ids)[0] print(output) 模型部署 import gradio as gr import os import gc import torchfrom transformers import AutoTokenizer #指定环境的GPU我的环境是2张A10040GB显卡于是我设置了两张卡也可以一张80GB的A100 os.environ[CUDA_VISIBLE_DEVICES] 0,1 #这个utils文件直接下载官方给的文件即可 from utils import SteamGenerationMixinclass MindBot(object):def __init__(self):#这个model_path为你本地的模型路径model_path ./ziya_v1.1self.model SteamGenerationMixin.from_pretrained(model_path, device_mapauto).half()self.model.eval()self.tokenizer AutoTokenizer.from_pretrained(model_path, use_fastFalse)def build_prompt(self, instruction, history, humanhuman, botbot):pmt if len(history) 0:for line in history:pmt f{human}: {line[0].strip()}\n{bot}: {line[1]}\npmt f{human}: {instruction.strip()}\n{bot}: \nreturn pmtdef interaction(self,instruction,history,max_new_tokens,temperature,top_p,max_memory1024):prompt self.build_prompt(instruction, history)input_ids self.tokenizer(prompt, return_tensorspt).input_idsif input_ids.shape[1] max_memory:input_ids input_ids[:, -max_memory:]prompt_len input_ids.shape[1]# stream generation methodtry:tmp history.copy()output with torch.no_grad():for generation_output in self.model.stream_generate(input_ids.cuda(),max_new_tokensmax_new_tokens, do_sampleTrue,top_ptop_p, temperaturetemperature, repetition_penalty1., eos_token_id2, bos_token_id1, pad_token_id0):s generation_output[0][prompt_len:]output self.tokenizer.decode(s, skip_special_tokensTrue)# output output.replace(\n, br)output output.replace(\n, \n\n)tmp.append((instruction, output))yield , tmptmp.pop()# gc.collect()# torch.cuda.empty_cache()history.append((instruction, output))print(input ----- \n, prompt)print(output ------- \n, output)print(history: \n, history)except torch.cuda.OutOfMemoryError:gc.collect()torch.cuda.empty_cache()self.model.empty_cache()history.append((instruction, 【显存不足请清理历史信息后再重试】))return , historydef chat(self):with gr.Blocks(titleIDEA MindBot, css.bgcolor {color: white !important; background: #FFA500 !important;}) as demo:with gr.Row():gr.Column(scale0.25)with gr.Column(scale0.5):gr.Markdown(centerh1IDEA Ziya/h1/center)gr.Markdown(center姜子牙通用大模型V1.1是基于LLaMa的130亿参数的大规模预训练模型具备翻译编程文本分类信息抽取摘要文案生成常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。/center)gr.Column(scale0.25)with gr.Row():gr.Column(scale0.25)with gr.Column(scale0.5):chatbot gr.Chatbot(labelZiya).style(height500)msg gr.Textbox(labelInput)# gr.Column(scale0.25)with gr.Column(scale0.25):max_new_tokens gr.Slider(0, 2048, value1024, step1.0, labelMax_new_tokens, interactiveTrue)top_p gr.Slider(0, 1, value0.85, step0.01, labelTop P, interactiveTrue)temperature gr.Slider(0, 1, value0.8, step0.01, labelTemperature, interactiveTrue)with gr.Row():gr.Column(scale0.25)with gr.Column(scale0.25):clear gr.Button(Clear)with gr.Column(scale0.25):submit gr.Button(Submit)gr.Column(scale0.25)msg.submit(self.interaction, [msg, chatbot,max_new_tokens,top_p,temperature], [msg, chatbot])clear.click(lambda: None, None, chatbot, queueFalse)submit.click(self.interaction, [msg, chatbot,max_new_tokens,top_p,temperature], [msg, chatbot])return demo.queue(concurrency_count10).launch(shareFalse,server_name127.0.0.1, server_port7886)if __name__ __main__:mind_bot MindBot()mind_bot.chat()人类反馈学习 Reinforcement learning from Human Feedback 基于SFT阶段的模型Ziya2-13B-Chat针对多种问答、写作以及模型安全性的任务上进行了人类偏好的对齐。自行采集了数万条高质量人类偏好数据使用Ziya2-13B-Base训练了人类偏好反馈模型在各任务的偏好数据上达到了72%以上的准确率。 效果评估 Performance Ziya2-13B-Base在Llama2-13B的基础上进行了约650B自建高质量中英文数据集的继续训练在中文、英文、数学、代码等下游理解任务上相对于Llama2-13B取得了明显的提升相对Ziya-LLaMA-13B也有明显的提升。 3.Prompt升级 参考文章https://zhuanlan.zhihu.com/p/635799364?utm_id0 第一版 尽管模型的输出SQL语句本身都是正确的却存在着一个明显的问题它会产生多余的输出。具体来说模型似乎过度地“幻想”了SQL查询的结果将一些并不属于实际查询结果的数据也一并输出这导致了信息冗余和不必要的复杂性。 第二版 经过版本升级后引入了角色扮演的功能告知模型它现在是一名数据分析师且精通SQL。然而尽管模型的输出SQL语句本身是正确的但结果呈现的方式却不够结构化这导致它并不适合后续的操作和分析。期望模型仅输出一段单独的、结构清晰的SQL语句而不是包含多余或复杂化的输出。作为数据分析师更注重结果的准确性和实用性因此希望模型能够在这方面进行改进。 第三版 经过进一步的版本升级增强了模型的输出引导功能希望它输出的SQL语句能够以“#”开头并以“#”结尾。然而发现尽管模型的SQL语句本身是正确的但其输出结果却存在错误结尾部分缺少了一个“#”。这导致了输出格式的不一致和潜在的识别问题。期待模型在输出SQL时能够严格遵守规定的格式确保每个SQL语句都以“#”完整包围以满足后续处理和分析的需求。 最终版 经过又一次的版本升级不仅在输出引导方面进行了增强还提供了具体的示例以帮助模型更好地理解的期望。这次欣喜地发现模型的输出SQL语句完全符合的需求。通过明确的输出引导和示例模型能够准确地生成结构清晰、格式规范的SQL语句为后续的数据处理和分析提供了极大的便利。这一改进不仅提升了模型的性能也进一步提高了的工作效率和准确性。 至此已深入掌握面向大模型开发的核心技术学会如何有效利用大模型的强大能力以应对各类复杂任务。整个过程可细化为以下关键步骤 首先需精心构建高质量的prompt。其中指令Instruction的设定至关重要需精确、明确地传达的任务需求上下文信息Context作为可选内容有助于模型更全面地理解问题背景输入数据Input Data是模型处理的具体对象应根据任务特点灵活选择输出指引Output Indicator则用于规定输出结果的类型、格式及精度确保模型输出符合专业标准。 随后需要不断迭代与优化prompt。这是一个精细的调试过程通过对比分析模型的实际输出与预期结果可以发现prompt中的不足之处进而针对性地调整其表述和细节。通过多次迭代可以逐步完善prompt使模型输出更加精确、全面。 最后验证prompt的稳定性和准确性是不可或缺的环节。通过大量的测试与验证可以评估模型在不同情境下的表现确保其输出的稳定性和可靠性。此外还需要关注模型的泛化能力确保其能够应对各种未知或复杂情况。 更多优质内容请关注公号汀丶人工智能会提供一些相关的资源和优质文章免费获取阅读。
http://www.pierceye.com/news/362357/

相关文章:

  • 网站建设自适应网站电商网站运营规划
  • 做网站如何报价泰州建设局网站质监站
  • 做家具网站电影网站做流量吗
  • 免费1级做看网站制作单页网站要网址
  • 网站返回首页怎么做的好看自贡网站优化
  • 自己的网站如何做推广wordpress积分与奖励
  • 产品包装设计网站网站建设 中企动力宜昌
  • 英语营销型网站建设北京pk10网站开发
  • 交换链接适合哪些网站东莞小程序开发制作
  • 医院网站建设网站阿里巴巴网站是用什么技术做的
  • 潍坊 餐饮网站建设淘宝seo优化
  • 樟木头镇网站建设公司WordPress企业响应式主题
  • 怎么给网站做备份呢怎么去建设微信网站
  • 成都各公司网站中小企业网站建设 论文
  • 广告网站建设实训报告做电商从哪里入手
  • 建电子商务网站需要多少钱做网站的简称
  • 制定网站推广方案网络营销网站分析
  • 商城网站系网站 png逐行交错
  • 陕西网站建设陕icp备免费虚拟机安卓
  • 优化教程网站推广排名东莞网站建设推广有哪些
  • 金阳建设集团网站电子商务系统 网站建设
  • 网站建设规模哪里有做app软件开发
  • 建站工具上市手机视频网站设计
  • 代做道具网站做地方门户网站不备案可以吗
  • 电子商务 网站前台功能想做微商怎么找厂家
  • 网站建设电子书做网站引入字体
  • 顺德建设网站公司分发平台
  • 个人门户网站模板下载婚纱摄影网站定制
  • 提高网站流量的软文案例手机腾讯网
  • 网站只做内容 不做外链深圳宝安区天气