大语言模型:预训练、微调、模型压缩及应用方向
好,那我提个概念,就刚才我说的叫LLM就叫做大语言模型,叫large language model。
而这里之所以叫大体,现在什么地方?第一我的输入数据是海量的。第二我们的参数是海量的。当然带来的好处是我们的预测是无是就是我们的性能准确率是非常非常高的就行了。
而且这个又分成好几类,就是比如说我只使用编码器的,只使用解码器的,或者编解码器都使用的就可以了。
但说到这你应该明白,我的模型训练太复杂了,所需的计算量也太大了,对不对?所以现在为止做一个普通用户,甚至做一个中小公司,想做大模型训练,这几乎是不可能的。投入都是以亿为单位往里边投入的
那你说我小公司也想使用模型怎么办呢?到今天为止啊,我的模型基本上多数有些组织或者公司他们会开源出来,他们训练好会把它开源出来,我们下载下来就能直接用。只不过你下载下来的那些通常是一些小模型,就是把大模型给它压缩之后,性能可能没那么好的小模型。而且他们所训练的模型呢也通常不是面向特定领域训练的,所以我们把它称为基础模型。
因而各位看到了现代深度学习,尤其是在自然语言处理和计算机视觉当中,常用的是两阶段训练模型。第一阶段抽取特征,学习一般规律,但不面向任何一个方向的领域优化。比如法律是吧这个政务处理,再比如说是这个这个计算机技术处理,再不然是编程等等。它这些都是不同的应用方向。但是我们的模型训练是不往任何一个方向进行优化。它只是训练出基础的模型来,或者就只训练成通用能力的这种就叫基础模型,这个过程我们称叫预训练。
随后第二阶段就是微调,我可以面向某一个的领域,比如面向法律的领域进行方向进行优化,面向这个编程方向进行微进行进行调整,进行优化。那个这也是一个微调,这就是所谓的预训练和微调的概念。
所以如果训练我们做不到,没有那么多的计算资源,也没有那么多的数据,那我可以就拿把别人开源的基础模型拿过来,自己面向自己的需求做微调,也能得到你所期望的结果。这样也避就避免了我们需要大量的计算资源进行训练的这种需求。我不知道我是不是说明白了。好,这就叫训练训练微调。
那目前来讲,我们的微调技术有很多,比如像什么adapt tune适配器的微调,前缀微调、提示微调。当然也有国人他们搞的也叫提示提示词微调,而且有V11V2版本,还有啊这个呃低质矩阵。嗯,ok Laura微调、ko ora微调、Ella Laura微调等等,这些也都是国人为主的团队所所所所所构建并并并并发表论文当中,并你可可以用就是发明出来的啊,就是国人为主的团队发明出来的。所以中国人在这方面这个这个能力啊在世界应该是处于前列的。其实就连chat GDT的很多他的朋友成员都是华人,这个各位应该有所了解。
好的,那我就还是那个时间有限,我就不描述了啊,回头在我们的正课中进行交付,这是大模型的微调技术。
但是各位要了解的是,大模型训练完以后,它在多大的计算资源训练,你将来要运行就得在多大资源运行。所以为了能够对于我们真正运行时所依赖资源要少一点,我接下来还有一个步骤叫叫模型压缩。我可以把模型把把不重要的参数给它去掉,这样子呢整个模型就小了一点。比如本来是在上千个显卡上训练的,到最后可以在一个显卡上面的运行起来e,那就叫模模型压缩。压缩成的技术包括剪枝、量化知识、蒸馏、低质分解、哈夫霍夫曼编码、共享权重等等。比如先看这里,我们的减值方式,就把不重要的参数给它剪掉。啊,网络当中有些神经元,你可以要求参数给它减掉,这样子能减减减少这个整个模型大小。所以使得大模型就能变成小模型,但是精度损失又比较小,这是一个目前来讲非常重要的技术方向。
另外我们一旦微调好了,你会发现还有一个问题,就是我们大模型的训练时用的都是过去的数据,甚至也不包括你公司特有数据,对不对?而你公司特有的数据,为了数据安全,为了数据隐秘性、私密性,又不打算也不允许让我们的这些大模型去训练。你要么自己训练模型,但是没这能力,没这资源,你又想用大模型怎么办呢?现在有了一种新技术叫叫叫叫什么本地知识库,大家知道叫reg我称叫检索增强增强生成。他的逻辑就是你可以自己本地使用一个向量数据库,以大模型的方式把你本地的私有数据给他做向量化以后放在向量数据库当中。当用户查询的时候,先基于关键词向你的向量数据库查出关键词来作为提示词发给大模型。有大模型根据你的提示词生成用户更容易读的更丰富的生成结果。这种就是说叫你可以有就是构建本地知识库,但又不至于让你的数据被泄露的方式。目前来讲构建本地知识库的呃项目有很多,比如使用launching chat checks加一个开源的大模型,或者使用OAPI直接调开源大模型,再不然使用fast GPT或者使用David DIFY是吧?这样的开源项目也能够实现类似的功能。
所以目前来讲,我们的大模型领域当中也有很多做launching开发或者r ride开发的,大概面临的就是这样一个领域。
好,其实到今天为止,刚才说过开篇我就跟大家说过。其实目前来讲,我们大模型,尤其是基础模型已已经处于幻灭期了,就是意味着很多公司已经卷不动了。早期人们的这个国国鹏涌进去之后呢,有很多得不到结果,卷死了很多这个这个这个参与者。那于是这剩下来的人们会发现,真正将来大模型未来的发展方向应该是应用。就刚才说的叫AI加加哪儿去?给我来看一看,给大家做个总结,加哪去?AIGC第一是内容生成,第二智能助手,我们成就cabi ot还有我们的智能分析。Inside下面就是智能体,我们称为AI agent,大概是这样的几个方向。
目前来讲,我们的各种app就开始面向这样几个方向进行再造了。甚至有些人是是直接做的。比如像什么豆包,大家应该用过吧,或质朴清颜e。再不然就是像什么什么这个这个国内还有其他的这个大模型,他们开源的一些APP直接就能做内容生成。我记得反正我儿子写作文,平时都会拿着我的手机,直接用豆包给他写一段,嗯,直接就直接就开始抄作文了。现在的小学生,估计小学生、中学生几乎几乎都都都都有这种能力来实现这样的来来实现,他们都能很好的直接使用人工智能了。现在都已经非常会的去使用这些东西。我记得在写数学作业啊,有些时候或者对自己的这个未知的问题,通常都会去问这些内容生成的那些那些那些up了。
至于智能助手,大家应该听说过像GitHub的cabillo t是吧?对,cabillo t能够帮助我去写代码,但他写的代码未经调试,可能需要人人工工作去复核的这个注意。另外像各种各样的智能体,智能体与Cabot的区别在于智能体能自主独立做决策的。所以你比如我们现在要开发coronets上的operator,它没有你像那些HPA啊、VPA啊等组件。在人工智能的加持之下,我们要扩容到多少个?基于过去的扩缩,我们预测数据来,它可能能够做出更精准的预测,而不是你那那些写死的逻辑来进行预测的。所以这些你可以理解为就是AIA技能的一个应用方向,对不对?另外我们的智能驾驶系统其实也算得上是一种AI进程,对不对?等等。
我相信这个领域就是智能体这个方向领域,未来啊可能应该是下一个真正要卷的。你可以理解为就是我们的人工智能要发展的关键的方向。
所以我们作为SRE或者云原生,甚至是IT任何相关岗位的从业者,你都应该关注。首先我们大模型究竟在底层是什么什么叫是什么是机器学习,什么是智能学习,他的能力为什么要需要?什么叫预训练,什么叫微调,什么叫模型压缩,他们有什么样e的功能,我们的AP是怎么调的等等,这应该都应该有所了解。
随后我们就可以基于他们所提供的API来开发一些一些面向特定领域的智能助手或者是智能体,利用他们的能力减少我们现实中对人类的需求。我是这样说,这样是不是可以听得明白?
那很显然目前来说看这里有个工具,a apps的著名工具代表就是KtSGPT。有同学听说过吗?K8SGPT是一款扫描cool news集群诊断和分析问题的开源工具。它将SREE焰直接接入到了他的analyzer当中去,能够帮助用户去分析我们cber nex之上的很多对象,来找一找它里边有没有问题。这其中包括我们的analyzer VV analyzer in gress analyser等等等等。能他能分析完以后找到他的问题,或者叫抽取他的疑问的数据的信息,作为提示词提交给大模型。基于大模型的查询结果e,给用户返回一个非常丰富的建议信息出来,这样对党不行的。好在我的正课当中,回头我就打算去讲一讲。比如我本地部署一个开源大模型ChatGPT,sorry, chat GLM或者是千万QN2.5这样的本地大模型。所以我们通过它的API暴露出来以后,把我的K8SGPT对接上去。我完全不依赖于这个这个去购买什么线上的大模型,我就能实现这样的本地G模型,结合本地的K8SGPT来实现我们S2E能力增强的能机制。
当然很显然,如果你是云原生工程师或者构研发人员,想去研发面向这个方向的技术的时候,那我们就应该去关注这些技术了。
好了,还是那句话,我今天准备的内容实在是太多了,实在啊我我超时了,最近快1个小时了。所以今天呢时间有限,还是那句话,就不再去进行描述。回头啊我会在我们的正课当中找一个时间段,把这些内容给录制出来啊。这是计划啊,不保证时间,只能说在2025年应该没问题。不保证时间把它录制出来,2025年进来的上半年把它交交付完成。随后呢可以在今天做一个不保证的不保证的承诺。但反正我今天或者在我们的双十一活动期间报名文科的同学,大课的同学啊,大课的同学啊,我指的是SRE啊,还有我们的这个什么什么,就是我们的这个医生,还有我们的什么,就是我我我记得我们运营同事是吧,我们的销售同事限制的是5000元以上,大的同学可能还有更大课的同学啊。那回头我们做一让他们去做一个策略,可以做一些这个这个附送,大概会有一天内容量的啊相关内容介绍,包括本地大模型的部这个这个这个这个部署啊,本地大模型的微调,甚至是对接K8SGPT等等等等来做内容的好了。
### 大语言模型应用攻略:解锁AIGC无限可能
在当今科技飞速发展的时代,大语言模型(LLM)正逐渐改变我们的生活和工作方式。对于普通用户和中小公司来说,如何利用这些强大的模型实现自己的需求呢?以下是一份详细的攻略,帮助你深入了解大语言模型的应用。
**一、预训练与微调**
大语言模型的训练通常分为预训练和微调两个阶段。预训练阶段,模型学习海量的文本数据,抽取特征,掌握一般规律,但不针对特定领域优化。例如,在自然语言处理和计算机视觉中常用的两阶段训练模型,第一阶段就是预训练。
而微调则是在预训练的基础上,让模型面向特定领域进行优化。比如,如果你从事法律行业,可以将预训练好的模型针对法律领域进行微调,使其更擅长处理法律相关的任务。这样,即使没有大量的计算资源和数据,利用别人开源的基础模型进行微调,也能满足自己的特定需求。
**二、模型压缩**
大模型训练所需的计算资源巨大,为了在实际运行中减少对资源的依赖,模型压缩技术应运而生。通过剪枝、量化知识、蒸馏、低质分解、哈夫霍夫曼编码、共享权重等方法,可以去掉不重要的数据,减小模型大小,同时保持较小的精度损失。例如,原本需要在上千个显卡上训练的模型,经过压缩后可以在一个显卡上运行。
**三.AIGC应用方向**
1. **内容生成**:现在很多大模型开源的APP都具备内容生成能力,如豆包等。小学生写作文、做数学作业遇到问题时,都可以借助这些工具获取帮助。
2. **智能助手**:像GitHub的Cabillo t能帮助写代码,但代码需人工复核。智能助手可以大大提高工作效率,但使用时要注意其局限性。
3. **智能体**:智能体能够自主独立做决策,在人工智能加持下,能基于过去的扩缩预测数据,做出更精准的预测。例如在开发coronets上的operator时,智能体可以发挥重要作用。
**四、本地知识库**
为了保护公司特有的数据安全和隐私,同时又能利用大模型的能力,可以构建本地知识库。其逻辑是使用向量数据库,将本地私有数据做向量化处理后存入其中。当用户查询时,基于关键词从向量数据库中查出提示词发给大模型,由大模型生成更丰富的结果。目前有许多开源项目,如launching chat checks、OAPI、fast GPT、David DIFY等,都能实现类似功能。
总之,大语言模型为我们带来了前所未有的机遇。通过了解预训练、微调、模型压缩等技术,以及AIGC的应用方向,我们可以更好地利用这些模型,提升工作效率,满足各种需求。无论是个人还是企业,都应积极关注并探索大语言模型的应用,紧跟科技发展的步伐
大语言模型,预训练,微调,模型压缩,本地知识库,AIGC,智能助手,智能体,AI应用,开源项目
而这里之所以叫大体,现在什么地方?第一我的输入数据是海量的。第二我们的参数是海量的。当然带来的好处是我们的预测是无是就是我们的性能准确率是非常非常高的就行了。
而且这个又分成好几类,就是比如说我只使用编码器的,只使用解码器的,或者编解码器都使用的就可以了。
但说到这你应该明白,我的模型训练太复杂了,所需的计算量也太大了,对不对?所以现在为止做一个普通用户,甚至做一个中小公司,想做大模型训练,这几乎是不可能的。投入都是以亿为单位往里边投入的
那你说我小公司也想使用模型怎么办呢?到今天为止啊,我的模型基本上多数有些组织或者公司他们会开源出来,他们训练好会把它开源出来,我们下载下来就能直接用。只不过你下载下来的那些通常是一些小模型,就是把大模型给它压缩之后,性能可能没那么好的小模型。而且他们所训练的模型呢也通常不是面向特定领域训练的,所以我们把它称为基础模型。
因而各位看到了现代深度学习,尤其是在自然语言处理和计算机视觉当中,常用的是两阶段训练模型。第一阶段抽取特征,学习一般规律,但不面向任何一个方向的领域优化。比如法律是吧这个政务处理,再比如说是这个这个计算机技术处理,再不然是编程等等。它这些都是不同的应用方向。但是我们的模型训练是不往任何一个方向进行优化。它只是训练出基础的模型来,或者就只训练成通用能力的这种就叫基础模型,这个过程我们称叫预训练。
随后第二阶段就是微调,我可以面向某一个的领域,比如面向法律的领域进行方向进行优化,面向这个编程方向进行微进行进行调整,进行优化。那个这也是一个微调,这就是所谓的预训练和微调的概念。
所以如果训练我们做不到,没有那么多的计算资源,也没有那么多的数据,那我可以就拿把别人开源的基础模型拿过来,自己面向自己的需求做微调,也能得到你所期望的结果。这样也避就避免了我们需要大量的计算资源进行训练的这种需求。我不知道我是不是说明白了。好,这就叫训练训练微调。
那目前来讲,我们的微调技术有很多,比如像什么adapt tune适配器的微调,前缀微调、提示微调。当然也有国人他们搞的也叫提示提示词微调,而且有V11V2版本,还有啊这个呃低质矩阵。嗯,ok Laura微调、ko ora微调、Ella Laura微调等等,这些也都是国人为主的团队所所所所所构建并并并并发表论文当中,并你可可以用就是发明出来的啊,就是国人为主的团队发明出来的。所以中国人在这方面这个这个能力啊在世界应该是处于前列的。其实就连chat GDT的很多他的朋友成员都是华人,这个各位应该有所了解。
好的,那我就还是那个时间有限,我就不描述了啊,回头在我们的正课中进行交付,这是大模型的微调技术。
但是各位要了解的是,大模型训练完以后,它在多大的计算资源训练,你将来要运行就得在多大资源运行。所以为了能够对于我们真正运行时所依赖资源要少一点,我接下来还有一个步骤叫叫模型压缩。我可以把模型把把不重要的参数给它去掉,这样子呢整个模型就小了一点。比如本来是在上千个显卡上训练的,到最后可以在一个显卡上面的运行起来e,那就叫模模型压缩。压缩成的技术包括剪枝、量化知识、蒸馏、低质分解、哈夫霍夫曼编码、共享权重等等。比如先看这里,我们的减值方式,就把不重要的参数给它剪掉。啊,网络当中有些神经元,你可以要求参数给它减掉,这样子能减减减少这个整个模型大小。所以使得大模型就能变成小模型,但是精度损失又比较小,这是一个目前来讲非常重要的技术方向。
另外我们一旦微调好了,你会发现还有一个问题,就是我们大模型的训练时用的都是过去的数据,甚至也不包括你公司特有数据,对不对?而你公司特有的数据,为了数据安全,为了数据隐秘性、私密性,又不打算也不允许让我们的这些大模型去训练。你要么自己训练模型,但是没这能力,没这资源,你又想用大模型怎么办呢?现在有了一种新技术叫叫叫叫什么本地知识库,大家知道叫reg我称叫检索增强增强生成。他的逻辑就是你可以自己本地使用一个向量数据库,以大模型的方式把你本地的私有数据给他做向量化以后放在向量数据库当中。当用户查询的时候,先基于关键词向你的向量数据库查出关键词来作为提示词发给大模型。有大模型根据你的提示词生成用户更容易读的更丰富的生成结果。这种就是说叫你可以有就是构建本地知识库,但又不至于让你的数据被泄露的方式。目前来讲构建本地知识库的呃项目有很多,比如使用launching chat checks加一个开源的大模型,或者使用OAPI直接调开源大模型,再不然使用fast GPT或者使用David DIFY是吧?这样的开源项目也能够实现类似的功能。
所以目前来讲,我们的大模型领域当中也有很多做launching开发或者r ride开发的,大概面临的就是这样一个领域。
好,其实到今天为止,刚才说过开篇我就跟大家说过。其实目前来讲,我们大模型,尤其是基础模型已已经处于幻灭期了,就是意味着很多公司已经卷不动了。早期人们的这个国国鹏涌进去之后呢,有很多得不到结果,卷死了很多这个这个这个参与者。那于是这剩下来的人们会发现,真正将来大模型未来的发展方向应该是应用。就刚才说的叫AI加加哪儿去?给我来看一看,给大家做个总结,加哪去?AIGC第一是内容生成,第二智能助手,我们成就cabi ot还有我们的智能分析。Inside下面就是智能体,我们称为AI agent,大概是这样的几个方向。
目前来讲,我们的各种app就开始面向这样几个方向进行再造了。甚至有些人是是直接做的。比如像什么豆包,大家应该用过吧,或质朴清颜e。再不然就是像什么什么这个这个国内还有其他的这个大模型,他们开源的一些APP直接就能做内容生成。我记得反正我儿子写作文,平时都会拿着我的手机,直接用豆包给他写一段,嗯,直接就直接就开始抄作文了。现在的小学生,估计小学生、中学生几乎几乎都都都都有这种能力来实现这样的来来实现,他们都能很好的直接使用人工智能了。现在都已经非常会的去使用这些东西。我记得在写数学作业啊,有些时候或者对自己的这个未知的问题,通常都会去问这些内容生成的那些那些那些up了。
至于智能助手,大家应该听说过像GitHub的cabillo t是吧?对,cabillo t能够帮助我去写代码,但他写的代码未经调试,可能需要人人工工作去复核的这个注意。另外像各种各样的智能体,智能体与Cabot的区别在于智能体能自主独立做决策的。所以你比如我们现在要开发coronets上的operator,它没有你像那些HPA啊、VPA啊等组件。在人工智能的加持之下,我们要扩容到多少个?基于过去的扩缩,我们预测数据来,它可能能够做出更精准的预测,而不是你那那些写死的逻辑来进行预测的。所以这些你可以理解为就是AIA技能的一个应用方向,对不对?另外我们的智能驾驶系统其实也算得上是一种AI进程,对不对?等等。
我相信这个领域就是智能体这个方向领域,未来啊可能应该是下一个真正要卷的。你可以理解为就是我们的人工智能要发展的关键的方向。
所以我们作为SRE或者云原生,甚至是IT任何相关岗位的从业者,你都应该关注。首先我们大模型究竟在底层是什么什么叫是什么是机器学习,什么是智能学习,他的能力为什么要需要?什么叫预训练,什么叫微调,什么叫模型压缩,他们有什么样e的功能,我们的AP是怎么调的等等,这应该都应该有所了解。
随后我们就可以基于他们所提供的API来开发一些一些面向特定领域的智能助手或者是智能体,利用他们的能力减少我们现实中对人类的需求。我是这样说,这样是不是可以听得明白?
那很显然目前来说看这里有个工具,a apps的著名工具代表就是KtSGPT。有同学听说过吗?K8SGPT是一款扫描cool news集群诊断和分析问题的开源工具。它将SREE焰直接接入到了他的analyzer当中去,能够帮助用户去分析我们cber nex之上的很多对象,来找一找它里边有没有问题。这其中包括我们的analyzer VV analyzer in gress analyser等等等等。能他能分析完以后找到他的问题,或者叫抽取他的疑问的数据的信息,作为提示词提交给大模型。基于大模型的查询结果e,给用户返回一个非常丰富的建议信息出来,这样对党不行的。好在我的正课当中,回头我就打算去讲一讲。比如我本地部署一个开源大模型ChatGPT,sorry, chat GLM或者是千万QN2.5这样的本地大模型。所以我们通过它的API暴露出来以后,把我的K8SGPT对接上去。我完全不依赖于这个这个去购买什么线上的大模型,我就能实现这样的本地G模型,结合本地的K8SGPT来实现我们S2E能力增强的能机制。
当然很显然,如果你是云原生工程师或者构研发人员,想去研发面向这个方向的技术的时候,那我们就应该去关注这些技术了。
好了,还是那句话,我今天准备的内容实在是太多了,实在啊我我超时了,最近快1个小时了。所以今天呢时间有限,还是那句话,就不再去进行描述。回头啊我会在我们的正课当中找一个时间段,把这些内容给录制出来啊。这是计划啊,不保证时间,只能说在2025年应该没问题。不保证时间把它录制出来,2025年进来的上半年把它交交付完成。随后呢可以在今天做一个不保证的不保证的承诺。但反正我今天或者在我们的双十一活动期间报名文科的同学,大课的同学啊,大课的同学啊,我指的是SRE啊,还有我们的这个什么什么,就是我们的这个医生,还有我们的什么,就是我我我记得我们运营同事是吧,我们的销售同事限制的是5000元以上,大的同学可能还有更大课的同学啊。那回头我们做一让他们去做一个策略,可以做一些这个这个附送,大概会有一天内容量的啊相关内容介绍,包括本地大模型的部这个这个这个这个部署啊,本地大模型的微调,甚至是对接K8SGPT等等等等来做内容的好了。
### 大语言模型应用攻略:解锁AIGC无限可能
在当今科技飞速发展的时代,大语言模型(LLM)正逐渐改变我们的生活和工作方式。对于普通用户和中小公司来说,如何利用这些强大的模型实现自己的需求呢?以下是一份详细的攻略,帮助你深入了解大语言模型的应用。
**一、预训练与微调**
大语言模型的训练通常分为预训练和微调两个阶段。预训练阶段,模型学习海量的文本数据,抽取特征,掌握一般规律,但不针对特定领域优化。例如,在自然语言处理和计算机视觉中常用的两阶段训练模型,第一阶段就是预训练。
而微调则是在预训练的基础上,让模型面向特定领域进行优化。比如,如果你从事法律行业,可以将预训练好的模型针对法律领域进行微调,使其更擅长处理法律相关的任务。这样,即使没有大量的计算资源和数据,利用别人开源的基础模型进行微调,也能满足自己的特定需求。
**二、模型压缩**
大模型训练所需的计算资源巨大,为了在实际运行中减少对资源的依赖,模型压缩技术应运而生。通过剪枝、量化知识、蒸馏、低质分解、哈夫霍夫曼编码、共享权重等方法,可以去掉不重要的数据,减小模型大小,同时保持较小的精度损失。例如,原本需要在上千个显卡上训练的模型,经过压缩后可以在一个显卡上运行。
**三.AIGC应用方向**
1. **内容生成**:现在很多大模型开源的APP都具备内容生成能力,如豆包等。小学生写作文、做数学作业遇到问题时,都可以借助这些工具获取帮助。
2. **智能助手**:像GitHub的Cabillo t能帮助写代码,但代码需人工复核。智能助手可以大大提高工作效率,但使用时要注意其局限性。
3. **智能体**:智能体能够自主独立做决策,在人工智能加持下,能基于过去的扩缩预测数据,做出更精准的预测。例如在开发coronets上的operator时,智能体可以发挥重要作用。
**四、本地知识库**
为了保护公司特有的数据安全和隐私,同时又能利用大模型的能力,可以构建本地知识库。其逻辑是使用向量数据库,将本地私有数据做向量化处理后存入其中。当用户查询时,基于关键词从向量数据库中查出提示词发给大模型,由大模型生成更丰富的结果。目前有许多开源项目,如launching chat checks、OAPI、fast GPT、David DIFY等,都能实现类似功能。
总之,大语言模型为我们带来了前所未有的机遇。通过了解预训练、微调、模型压缩等技术,以及AIGC的应用方向,我们可以更好地利用这些模型,提升工作效率,满足各种需求。无论是个人还是企业,都应积极关注并探索大语言模型的应用,紧跟科技发展的步伐
大语言模型,预训练,微调,模型压缩,本地知识库,AIGC,智能助手,智能体,AI应用,开源项目
评论 (0)
