营销型网站有哪些app,做建材网站怎么做,网页美工设计脚本,网站做分享链接个人认为#xff0c;主要是两个难点#xff1a;
1.语料#xff0c;通常的语料很好解决#xff0c;用爬虫从互联网上就可以采集和标注训练。但是我们接触很多项目和客户需求都是专业性很强的#xff0c;例如#xff1a;航天材料、电气设备、地理信息、化学试剂 等等。往往…个人认为主要是两个难点
1.语料通常的语料很好解决用爬虫从互联网上就可以采集和标注训练。但是我们接触很多项目和客户需求都是专业性很强的例如航天材料、电气设备、地理信息、化学试剂 等等。往往很多素材和语料都是很宝贵的而且都是这些企业的内部资料。同时客户是对技术算法和模型不懂的我们的工程师对客户业务一窍不通双方一开始的时候都不知道怎么分类和标注及训练等等更不要说让机器能听懂人的指令了。也就意味着我们要有一帮苦逼的项目经理、产品经理、工程师、测试人员要把客户资料学一遍再去做标注和分类。例如需要抽取航天材料资料里面的数据得知道哪些数据是有用的以及数据之间的对应关系。再说了客户本来希望通过我们帮助他们的高级人才节省时间我们总不能让那些博士、专家帮我们做标注训练吧实际场景下是行不通的只能我们自己学一遍自己干。
btw有人会说用大模型解决...就算ChatGPT再强大他也不是万能什么都懂的而且很多数据都在客户内网环境。
2.语境不同的环境以及不同人说的话实际场景中意义是不同的例如证监会网站的服务器被攻击了。这句话对于股票市场的涨跌幅没有任何影响。再例如宝马车很好奔驰车很拉胯。这句话到底是正面还是负面呢要看说这个话的让和说这个话当时的场景是什么
其次传统的自然语言处理NLP技术就像是我们让电脑去理解人类的语言但这个任务其实挺难的。首先电脑虽然能听懂一些话但要完全理解我们说话的上下文和背后的深层含义它还是有点儿吃力。其次世界上的语言千奇百怪电脑得学会适应各种不同的说话方式这可不是件容易的事。
电脑要学说话得有好的教材也就是大量的数据。但这些数据有时候质量参差不齐有时候还带有偏见而且电脑学的东西越多需要的存储空间和计算能力也就越大。而且电脑学说话的过程就像是个黑盒子我们很难知道它是怎么做出决定的。
电脑学语言的方式也很重要。有时候我们得给它设定一大堆规则但这些规则可能不够灵活。有时候我们用统计的方法让电脑自己从数据里学习但这样又可能遇到新情况时不知所措。
自然语言本身就很灵活有时候一句话可以有多种意思这让电脑很头疼。而且电脑还得学会处理那些专业领域的术语这就需要它懂得更多。最后电脑还得学会和人实时对话这要求它反应快还得能跟上对话的节奏。 同时给大家推荐一个开源项目
多模态AI能力引擎平台: 免费的自然语言处理、情感分析、实体识别、图像识别与分类、OCR识别、语音识别接口功能强大欢迎体验。https://gitee.com/stonedtx/free-nlp-api .