首页 >科技周边 >人工智能 >大语言模型课程

大语言模型课程

WBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWB
WBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWB原创
2025-02-25 19:45:15677浏览

这个全面的课程探讨了大型语言模型(LLM),提供了两种不同的学习路径:LLM科学家构建最佳LLM的轨道,以及用于开发和部署基于LLM的应用程序的LLM工程师轨道。 可以通过HuggingChat(推荐)或Chatgpt获得交互式版本。

>

LLM科学家曲目:此路径着重于使用尖端技术来掌握LLM构造。

The Large Language Model Course

1。 LLM体系结构:虽然深度变压器体系结构知识并不是强制性的,但了解核心过程至关重要:文本到数字转换(令牌化),通过注意机制进行令牌处理以及通过各种抽样策略的文本生成。 关键领域包括了解建筑演化,象征化策略,注意机制(自我注意力和变体)以及文本生成抽样技术。

2。培训预训练模型:尽管计算密集型,抓住预训练至关重要。这涉及数据准备(策展,清洁,重复数据删除),分布式培训(数据,管道和张量并行性),培训优化(自适应学习率,梯度剪接)以及对关键指标的细致监控。

3。培训后数据集:培训后数据集,该数据集由指令和答案(有监督的微调)或偏好对(偏好对齐)结构至关重要。 本节涵盖了存储格式,合成数据生成,数据增强技术和良好的质量过滤方法。

4。监督的微调(SFT): SFT将基本模型转变为有用的助手。 这涉及了解培训技术(完整的微调与参数效率的方法(如Lora和Qlora),关键培训参数,分布式培训策略以及有效的监控技术。

5。偏好比对:

此阶段将模型输出与人类偏好相结合,减轻毒性和幻觉。 它着重于拒绝采样,直接偏好优化(DPO),近端策略优化(PPO)和绩效监控。> 6。评估:可靠的LLM评估至关重要。本节探讨了自动基准,人类评估,基于模型的评估以及分析反馈信号以提高模型性能的重要性。

7。量化:通过参数和激活量化降低LLMS的计算和记忆成本的技术,涵盖了各种精确级别,例如Llama.cpp和GGUF,以及高级技术,例如GPTQ,AWQ,AWQ,Smoothquant和Zeroquant和ZeroQuant 。

8。新兴趋势:本节探讨了高级主题,例如模型合并,多模式模型,可解释性技术(包括消融)和测试时间计算缩放。

>

LLM工程师轨道:此路径着重于构建适合生产的LLM应用程序,强调模型增强和部署。

The Large Language Model Course

1。运行LLMS:

本节涵盖通过API(私有和开放源代码)运行LLMS,利用来自拥抱面枢纽的开源LLMS,掌握及时的工程技术,以及针对特定应用程序的结构输出。 2。构建向量存储:

本节详细介绍了创建用于检索增强生成(RAG)管道的矢量存储,包括文档摄入,分割,嵌入模型和矢量数据库。

3。检索增强发电(RAG):本节说明了如何构建抹布管道,重点关注编排者,检索器,内存管理和评估指标。

4。高级抹布:本节涵盖了高级抹布技术,例如用于结构化数据库,基于代理的系统,后处理方法和使用诸如DSPY等框架的程序化LLM优化的查询构造。>

5。推理优化:

本节探讨了用于优化LLM推理的技术,包括闪光注意力,键值缓存和投机解码。 6。部署LLMS:本节涵盖了本地部署选项,使用Gradio和简化,服务器端部署策略等框架创建演示,以及用于约束环境的边缘部署。

7。确保LLMS:

本节解决了LLM所带来的独特安全挑战,包括及时黑客入侵,后门和防御措施。 > 结论:

该课程鼓励动手学习和探索,建议使用各种工具和技术进行实验,以在广阔的LLM景观中开发专业知识。

以上是大语言模型课程的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn