51CTO卢菁老师北大博士ChatGLM大模型实战训练营-从芯片基础到大模型构建

网盘目录

01 大模型基础
01 大模型三要素:算法、数据、算力145.55M
02 大模型理论基础349.57M
1.距离精讲135.18M
2.向量数据库基础123.39M
07 大模型训练营7:GPU的计算原理298.6M
08 大模型8:大模型技术一览,一些细节483.59M
免费试看
大模型训练营1.大模型综述104.21M
大模型训练营2.大数据和大模型,常见分词方法199.7M
大模型训练营3:模型参数微调165.4M
大模型训练营4:prefixtuning和adapter281.95M
大模型训练营5:lora和langchain273.29M
大模型训练营6:模型并行165.78M
预习资料1:Attention模型220.99M
预习资料2:Transformer和bert241.86M
卢菁老师

适合人群:

具有人工智能基础,希望学习大模型的同学

你将会学到:

学会大模型的构建,包括langchain lora等技术

课程简介:

一.GPU芯片基础

1. 大模型计算的特点

2. GPU运行原理和架构解析

3. GPU运算核心单元:cudaCoreTensorCore

4. GPU通信原理:nvlinknvswitch

5. Nvidia芯片发展历程:从Fermi架构到Hopper架构

6. 大模型并行计算:数据并行,张量并行,模型并行

二.基于ChatGLM模型的大模型构建

1. 底座模型GLM详解和核心源码解读

2. 大模型训练方法finetune

3. 大模型训练方法Lorarank确定方法

4. 大模型训练方法p-tuning

5. 大模型训练方法RHLF原理详解

6. 基于LangChain的知识库搭建

7. 基于大模型的知识压缩

8. Prompt工程和技巧

9. 大模型采样原理解析

三.大模型周边技术串讲

1. 大模型为什么有效?Transformer的底层逻辑详解

2. 大模型内容审核系统搭建

3. 羊驼大模型详解

4. 百川大模型详解

5. 如何选择大模型?市面大模型的对比和选择




全网最全最新最专业的资源站
九章资源站 » 51CTO卢菁老师北大博士ChatGLM大模型实战训练营-从芯片基础到大模型构建

发表回复

全网最全最新最专业的资源站

购买会员 联系客服