【课程概述】
AIGC是人工智能领域里程碑式产品,以ChatGPT为代表的产品在上下文感知与多轮对话,多领域知识融合以及创造性文本生成等多个方面有着突破性表现,标志着人类社会进入AI 4.0时代。
本课程系统全面介绍AI大模型从基础理论到训练、微调、部署,以及最终完成应用开发所需的全栈知识。课程注重实践性和落地性,全程以实战为主,通过大量实践案例系统深入、通俗易懂的讲解AI大模型原理、核心技术与工具、数据处理与模型训练和高级工具与框架等系列内容,并协助学员结合自己的业务落地应用。
【学习目标与服务】
1.AI大模型原理;
探索AI大模型的起源、基本概念及其发展历程。
深入Transformer结构,理解其组成部分和工作原理。
详解GPT系列和LLaMA等模型的架构和优化。
2.核心技术与工具;
学习预训练、微调技术和提示工程的最佳实践。
熟悉AI智能体的应用和大模型微调方法,如LoRA。
掌握Hugging Face Transformers和Datasets工具库的使用。
3.数据处理与模型训练;
了解大模型预训练数据的来源、处理及其对模型性能的影响。
实践使用Transformers和Datasets库进行模型训练。
4.实战应用与案例分析;
应用大模型技术解决实际问题,如文本生成、语音识别和聊天机器人开发。
深入多模态模型应用,包括文生图和文字配音技术。
5.高级工具与框架;
探讨LangChain和LangSmith等高级开发平台和框架,学习构建复杂的AI应用。
通过实际案例,如智能翻译助手和销售顾问机器人,深化理解大模型的业务应用。
6.本课程提供线上回放以便于学员课后温习巩固;
7.搭建课后答疑服务群,提供解答辅导等技术服务;
报名咨询 13932327338 13932327338@163.com
【培训/地点】
2025年1月11日——1月13日(10日报道) 北京+线上直播
【课程大纲】
章节 主题 知识点
第一节
AI和大模型概述
符号主义、连接主义的概念,人们对AI模型的探索
智能代理、知识表示、推理与搜索
专家系统的应用
深度学习对AI带来的革命影响
机器学习:监督学习、无监督学习、强化学习
图像识别、语音识别、自然语言处理等领域的突破
行业应用和社会影响
第二节
经典深度学习模型和框架
问答模型的快速实现:代码完成自由问答机器人
Pytorch框架介绍和环境搭建
Pytorch张量、卷积等基础知识
TensorFlow-Keras体系与PyTorch的对比
池化,激活函数,反向传播
目标分类与识别、目标检测与追踪
MLP多层感知机模型搭建与代码实现
AlexNet-VGGNet-GoogLeNet-ResNet-DenseNet
Inception-V3/V4-NasNet
代码和案例实践:
卷积核与特征提取
人证合一
卷积神经网络调参经验分享
第三节
提示工程
AI办公工具:如智能会议助手、文档自动摘要软件
AI写作工具:介绍自动生成报告、邮件的工具及其应用场景
AI搜索工具:高级信息检索与知识图谱应用
AI编程工具:自动代码生成与程序缺陷检测软件
AI图像音视频工具:图像识别、视频监控分析软件
AI设计工具:自动化图形设计与创意辅助系统
综合:提示词的书写
不同大模型的选型
第四节
大模型Agent模式
Agent感知环境、自主决策和生成行为
强化学习的思路和Agent模式
感知、执行、规划、反馈
环境感知与理解
任务拆解和状态表达
规划执行步骤
评估风险与收益
自主决策与规划
行动执行与反馈
协作与交互
多Agent协作
使用大模型做Agent模式的实例
反馈机制的使用
第五节
大模型部署的软硬件选型
硬件与软件配置
硬件选择:GPU或TPU
信创要求下的硬件选型
软件配置:TensorFlow或PyTorch的选择
模型选择与架构设计
预训练大模型的选型:Llama、baichuan2、chatGLM4等。
架构设计:定制模型架构
模型训练与微调
模型评估与测试
BLEU分数或ROUGE分数
第六节
自注意力Self-Attention和Transformer模型
编码器、解码器
自注意力机制详解
Transformer
Mask Multi-Head Attention
位置编码
特定于任务的输入转换
无监督预训练、有监督Fine-tuning
BERT思路的理解
GPT基本思想
代码和案例实践:
基本问答系统的代码实现
深入阅读理解的代码实现
段落相关性代码实现
高考作文神器
作文生成
第七节
GPT1、GPT2、GPT3、chatGPT原理与实战
监督微调(SFT)模型、
指示学习和提示学习
简单提示、小样本提示、基于用户的提示
指令微调
RLLHF技术详解(从人类的反馈中学习)
聚合问答数据训练奖励模型(RM)
强化学习微调、PPO、
InstructGPT遵循用户意图使用强化学习方案
Instruct Learning vs. Prompt Learning
ChatGPT增加增加了Chat属性
AI系统的新范式
GPT1-GPT2-GPT3-InstructGPT的-chatGPT的技术关系
代码和案例实践:
使用chatGPT打造你的私人聊天助理
演示提示词技巧,翻译器润色器、JavaScript控制台 、Excel Sheet
网站定制chatgpt-web
第八节
人工反馈强化学习RLHF
强化学习核心机制
深度学习和强化学习的结合
SARSA和Q-Learning
时序差分简介、TD目标值/ TD误差
DP/MC/TD对比
在线策略TD:Sarsa算法
离线策略TD:Q-learning算法
表格型强化学习/函数近似型强化学习
值函数逼近的Sarsa算法、Q-learning算法
DQN
Double DQN方法
Dueling DQN方法
InstructGPT遵循用户意图使用强化学习方案
代码和案例实践:
AlphaGo的代码实现细节
策略梯度PG和PPO算法
RLHF:从人类的反馈中学习(经典论文学习)
DQN、Double DQN的路径优化实现
第九节
LLM应用程序技术栈
设计模式:上下文学习
数据预处理/嵌入
提示构建/检索
提示执行/推理
数据预处理/嵌入
Weaviate、Vespa和Qdrant等开源系统
Chroma和Faiss等本地向量管理库
pgvector等OLTP扩展
提示构建/检索
提示执行/推理
新兴的大语言(LLM)技术栈
数据预处理管道(data preprocessing pipeline)
嵌入终端(embeddings endpoint)+向量存储(vector store)
LLM终端(LLM endpoints)
LLM编程框架(LLM programming framework)
LangChain的主要功能及模块
Prompts:这包括提示管理、提示优化和提示序列化。
LLMs:这包括所有LLMs的通用接口,以及常用的LLMs工具。
Document Loaders:这包括加载文档的标准接口,以及与各种文本数据源的集成。
Utils:语言模型在与其他知识或计算源的交互
Python REPLs、嵌入、搜索引擎等
LangChain提供的常用工具
Indexes:语言模型结合自定义文本数据
Agents:动作执行、观测结果,
LangChain的代理标准接口、可供选择的代理、端到端代理示例
Chat:Chat模型处理消息
代码和案例实践:
LLM大模型的使用
Prompts的设计和使用
第十节
自定义知识库LangChain的使用
构建垂直领域大模型的通用思路和方法
(1)大模型+知识库
(2) PEFT(参数高效的微调)
(3)全量微调
(4)从预训练开始定制
LangChain介绍
LangChain模块学习-LLMs和Prompts
LangChain之Chains模块
LangChain之Agents模块
LangChain之Callback模块
Embedding嵌入
自定义知识库
知识冲突的处理方式
向量化计算可采用的方式
文档加载器模块
向量数据库问答的设计
Lanchain竞品调研和分析
Dust.tt/Semantic-kernel/Fixie.ai/Cognosis/GPT-Index
LlamaIndex介绍
LlamaIndex索引
动手实现知识问答系统
代码和案例实践:
动手实现知识问答机器人
LangChain文本摘要
PDF文本阅读问答
第十一节
大模型四阶技术与微调方案
关于扩散模型和多模态的讨论
AI智能体(Agents)
大模型微调(Fine-tuning)
预训练技术(Pre-training)
大模型微调技术原理揭秘
大语言模型技术发展与演进
基于统计机器学习的语言模型
基于深度神经网络的语言模型
基于Transformer的大语言模型
大模型高效微调技术Parameter-Efficient Fine-Tuning(PEFT)初探
Adapter Tuning
Prefix Tuning
Prompt Tuning
P-Tuning v1
P-Tuning v2
大模型轻量级高效微调方法LoRA
LoRA:Low-Rank Adaptation of LLMs
QLoRA:Efficient Finetuning of Quantized LLMs
AdaLoRA:Adaptive Budget Allocation for PEFT
Few-shot PEFT新方法IA3:Better and Cheaper than In-Context Learning
统一微调框架UniPELT:Unified Framework for Parameter-Efficient LM Tuning
第十二节
扩散模型
GAN-VAE-流模型-扩散模型的技术发展和变化
CLIP和扩散模型的结合:基于CLIP模型的多模态引导图像生成:图文引导
GLIDE:文本引导
Diffusion-CLIP模型
扩散和去噪(Diffusion&Denoise)
训练和采样(Training&Sampling)
离散步骤的马尔可夫链
分子热动力学的扩散过程
离散加噪
DDPM-最经典的扩散模型
DDIM:加速采样、可控扩散
IVLR:迭代去燥的图像编辑,低通滤波上采样
RePaint:被掩码的区域进行扩散生成
代码和案例实践一:
低质量噪声图像修复
精确复原原图
图像去除遮挡、图像补全
图像生成(人物恢复青春、人物变瘦)
第十三节
文生图、图生文
图像引导、文本引导、图像+文本引导
CLIP和扩散模型的结合:基于CLIP模型的多模态引导图像生成:图文引导
GLIDE:文本引导
DALL·E 2:diffusion model和CLIP结合在一起
隐式分类器引导的图像生成
Blended Diffusioni模型
DiffEdit模型
AIGC的可能应用领域和行业影响
本人在央企数字化转型中的实践体会
代码和案例实践:
实现图像引导、文字引导、图文引导下的图片生成
Diffusion LM
Diffusion-CLIP模型
知识图谱-图网络等“边缘技术”在AIGC中的应用
第十四节
大模型实际项目的部署
大模型服务部署
硬件与软件配置
硬件选择:GPU或TPU
软件配置:TensorFlow或PyTorch的选择
模型选择与架构设计
预训练大模型的选型:GPT-3、chatGLM4、BERT等。
架构设计:定制模型架构
模型训练与微调
模型评估与测试
BLEU分数或ROUGE分数
AI大模型的不同产品与发展脉络
分析工业物联网、预测性维护、质量控制、供应链优化等应用场景
大模型实现设备故障预警
大模型在不同工业细分领域的应用现状
【授课专家】
邹老师,长春工业大学人工智能研究院院长,工程学术带头人、华东建筑设计研究总院研究员、山东交通学院客座教授、南昌航空大学硕士生导师、中国软件行业协会专家委员、上海市计划生育科学研究所特聘专家、天津大学创业导师、中华中医药学会会员、中国医药教育协会老年运动与健康分会学术委员;领导睿客邦与全国二十多所高校、国企建立了AI联合实验室,完成50多个深度学习实践项目,广泛应用于医疗、交通、农业、气象、银行、电信等多个领域。
【费用标准】
线上3800元/人、线下4800元/人(课后均可获得线上回放),含上课期间专家授课费、教材资料费等,参加线下课程食宿费用自理;支持公务卡在线支付,银行对公转账,提供正式增值税电子发票或纸质发票。
【学时证明】
学员经培训可获得:课程培训结业证书;该证书表明持有者已通过相关考核,具备相应的专业知识和专业技能,并作为聘用、任职、定级和晋升的重要参考依据。