LOFTER for ipad —— 让兴趣,更有趣

点击下载 关闭
大模型全原理与实战研修班
wwwwww 2024-12-03

【课程概述】

AIGC是人工智能领域里程碑式产品,以ChatGPT为代表的产品在上下文感知与多轮对话,多领域知识融合以及创造性文本生成等多个方面有着突破性表现,标志着人类社会进入AI 4.0时代。

本课程系统全面介绍AI大模型从基础理论到训练、微调、部署,以及最终完成应用开发所需的全栈知识。课程注重实践性和落地性,全程以实战为主,通过大量实践案例系统深入、通俗易懂的讲解AI大模型原理、核心技术与工具、数据处理与模型训练和高级工具与框架等系列内容,并协助学员结合自己的业务落地应用。

【学习目标与服务】

1.AI大模型原理;

探索AI大模型的起源、基本概念及其发展历程。

深入Transformer结构,理解其组成部分和工作原理。

详解GPT系列和LLaMA等模型的架构和优化。

2.核心技术与工具;

学习预训练、微调技术和提示工程的最佳实践。

熟悉AI智能体的应用和大模型微调方法,如LoRA。

掌握Hugging Face Transformers和Datasets工具库的使用。

3.数据处理与模型训练;

了解大模型预训练数据的来源、处理及其对模型性能的影响。

实践使用Transformers和Datasets库进行模型训练。

4.实战应用与案例分析;

应用大模型技术解决实际问题,如文本生成、语音识别和聊天机器人开发。

深入多模态模型应用,包括文生图和文字配音技术。

5.高级工具与框架;

探讨LangChain和LangSmith等高级开发平台和框架,学习构建复杂的AI应用。

通过实际案例,如智能翻译助手和销售顾问机器人,深化理解大模型的业务应用。

6.本课程提供线上回放以便于学员课后温习巩固;

7.搭建课后答疑服务群,提供解答辅导等技术服务;

报名咨询   13932327338  13932327338@163.com

【培训/地点】

2025年1月11日——1月13日(10日报道) 北京+线上直播

【课程大纲】

章节 主题 知识点

第一节

AI和大模型概述

符号主义、连接主义的概念,人们对AI模型的探索

智能代理、知识表示、推理与搜索

专家系统的应用

深度学习对AI带来的革命影响

机器学习:监督学习、无监督学习、强化学习

图像识别、语音识别、自然语言处理等领域的突破

行业应用和社会影响

第二节

经典深度学习模型和框架

问答模型的快速实现:代码完成自由问答机器人

Pytorch框架介绍和环境搭建

Pytorch张量、卷积等基础知识

TensorFlow-Keras体系与PyTorch的对比

池化,激活函数,反向传播

目标分类与识别、目标检测与追踪

MLP多层感知机模型搭建与代码实现

AlexNet-VGGNet-GoogLeNet-ResNet-DenseNet

Inception-V3/V4-NasNet

代码和案例实践:

卷积核与特征提取

人证合一

卷积神经网络调参经验分享

第三节

提示工程

AI办公工具:如智能会议助手、文档自动摘要软件

AI写作工具:介绍自动生成报告、邮件的工具及其应用场景

AI搜索工具:高级信息检索与知识图谱应用

AI编程工具:自动代码生成与程序缺陷检测软件

AI图像音视频工具:图像识别、视频监控分析软件

AI设计工具:自动化图形设计与创意辅助系统

综合:提示词的书写

不同大模型的选型

第四节

大模型Agent模式

Agent感知环境、自主决策和生成行为

强化学习的思路和Agent模式

感知、执行、规划、反馈

环境感知与理解

任务拆解和状态表达

规划执行步骤

评估风险与收益

自主决策与规划

行动执行与反馈

协作与交互

多Agent协作

使用大模型做Agent模式的实例

反馈机制的使用

第五节

大模型部署的软硬件选型

硬件与软件配置

硬件选择:GPU或TPU

信创要求下的硬件选型

软件配置:TensorFlow或PyTorch的选择

模型选择与架构设计

预训练大模型的选型:Llama、baichuan2、chatGLM4等。

架构设计:定制模型架构

模型训练与微调

模型评估与测试

BLEU分数或ROUGE分数

第六节

自注意力Self-Attention和Transformer模型

编码器、解码器

自注意力机制详解

Transformer

Mask Multi-Head Attention

位置编码

特定于任务的输入转换

无监督预训练、有监督Fine-tuning

BERT思路的理解

GPT基本思想

代码和案例实践:

基本问答系统的代码实现

深入阅读理解的代码实现

段落相关性代码实现

高考作文神器

作文生成

第七节

GPT1、GPT2、GPT3、chatGPT原理与实战

监督微调(SFT)模型、

指示学习和提示学习

简单提示、小样本提示、基于用户的提示

指令微调

RLLHF技术详解(从人类的反馈中学习)

聚合问答数据训练奖励模型(RM)

强化学习微调、PPO、

InstructGPT遵循用户意图使用强化学习方案

Instruct Learning vs. Prompt Learning

ChatGPT增加增加了Chat属性

AI系统的新范式

GPT1-GPT2-GPT3-InstructGPT的-chatGPT的技术关系

代码和案例实践:

使用chatGPT打造你的私人聊天助理

演示提示词技巧,翻译器润色器、JavaScript控制台 、Excel Sheet

网站定制chatgpt-web

第八节

人工反馈强化学习RLHF

强化学习核心机制

深度学习和强化学习的结合

SARSA和Q-Learning

时序差分简介、TD目标值/ TD误差

DP/MC/TD对比

在线策略TD:Sarsa算法

离线策略TD:Q-learning算法

表格型强化学习/函数近似型强化学习

值函数逼近的Sarsa算法、Q-learning算法

DQN

Double DQN方法

Dueling DQN方法

InstructGPT遵循用户意图使用强化学习方案

代码和案例实践:

AlphaGo的代码实现细节

策略梯度PG和PPO算法

RLHF:从人类的反馈中学习(经典论文学习)

DQN、Double DQN的路径优化实现

第九节

LLM应用程序技术栈

设计模式:上下文学习

数据预处理/嵌入

提示构建/检索

提示执行/推理

数据预处理/嵌入

Weaviate、Vespa和Qdrant等开源系统

Chroma和Faiss等本地向量管理库

pgvector等OLTP扩展

提示构建/检索

提示执行/推理

新兴的大语言(LLM)技术栈

数据预处理管道(data preprocessing pipeline)

嵌入终端(embeddings endpoint)+向量存储(vector store)

LLM终端(LLM endpoints)

LLM编程框架(LLM programming framework)

LangChain的主要功能及模块

Prompts:这包括提示管理、提示优化和提示序列化。

LLMs:这包括所有LLMs的通用接口,以及常用的LLMs工具。

Document Loaders:这包括加载文档的标准接口,以及与各种文本数据源的集成。

Utils:语言模型在与其他知识或计算源的交互

Python REPLs、嵌入、搜索引擎等

LangChain提供的常用工具

Indexes:语言模型结合自定义文本数据

Agents:动作执行、观测结果,

LangChain的代理标准接口、可供选择的代理、端到端代理示例

Chat:Chat模型处理消息

代码和案例实践:

LLM大模型的使用

Prompts的设计和使用

第十节

自定义知识库LangChain的使用

构建垂直领域大模型的通用思路和方法

(1)大模型+知识库

(2) PEFT(参数高效的微调)

(3)全量微调

(4)从预训练开始定制

LangChain介绍

LangChain模块学习-LLMs和Prompts

LangChain之Chains模块

LangChain之Agents模块

LangChain之Callback模块

Embedding嵌入

自定义知识库

知识冲突的处理方式

向量化计算可采用的方式

文档加载器模块

向量数据库问答的设计

Lanchain竞品调研和分析

Dust.tt/Semantic-kernel/Fixie.ai/Cognosis/GPT-Index

LlamaIndex介绍

LlamaIndex索引

动手实现知识问答系统

代码和案例实践:

动手实现知识问答机器人

LangChain文本摘要

PDF文本阅读问答

第十一节

大模型四阶技术与微调方案

关于扩散模型和多模态的讨论

AI智能体(Agents)

大模型微调(Fine-tuning)

预训练技术(Pre-training)

大模型微调技术原理揭秘

大语言模型技术发展与演进

基于统计机器学习的语言模型

基于深度神经网络的语言模型

基于Transformer的大语言模型

大模型高效微调技术Parameter-Efficient Fine-Tuning(PEFT)初探

Adapter Tuning

Prefix Tuning

Prompt Tuning

P-Tuning v1

P-Tuning v2

大模型轻量级高效微调方法LoRA

LoRA:Low-Rank Adaptation of LLMs

QLoRA:Efficient Finetuning of Quantized LLMs

AdaLoRA:Adaptive Budget Allocation for PEFT

Few-shot PEFT新方法IA3:Better and Cheaper than In-Context Learning

统一微调框架UniPELT:Unified Framework for Parameter-Efficient LM Tuning

第十二节

扩散模型

GAN-VAE-流模型-扩散模型的技术发展和变化

CLIP和扩散模型的结合:基于CLIP模型的多模态引导图像生成:图文引导

GLIDE:文本引导

Diffusion-CLIP模型

扩散和去噪(Diffusion&Denoise)

训练和采样(Training&Sampling)

离散步骤的马尔可夫链

分子热动力学的扩散过程

离散加噪

DDPM-最经典的扩散模型

DDIM:加速采样、可控扩散

IVLR:迭代去燥的图像编辑,低通滤波上采样

RePaint:被掩码的区域进行扩散生成

代码和案例实践一:

低质量噪声图像修复

精确复原原图

图像去除遮挡、图像补全

图像生成(人物恢复青春、人物变瘦)

第十三节

文生图、图生文

图像引导、文本引导、图像+文本引导

CLIP和扩散模型的结合:基于CLIP模型的多模态引导图像生成:图文引导

GLIDE:文本引导

DALL·E 2:diffusion model和CLIP结合在一起

隐式分类器引导的图像生成

Blended Diffusioni模型

DiffEdit模型

AIGC的可能应用领域和行业影响

本人在央企数字化转型中的实践体会

代码和案例实践:

实现图像引导、文字引导、图文引导下的图片生成

Diffusion LM

Diffusion-CLIP模型

知识图谱-图网络等“边缘技术”在AIGC中的应用

第十四节

大模型实际项目的部署

大模型服务部署

硬件与软件配置

硬件选择:GPU或TPU

软件配置:TensorFlow或PyTorch的选择

模型选择与架构设计

预训练大模型的选型:GPT-3、chatGLM4、BERT等。

架构设计:定制模型架构

模型训练与微调

模型评估与测试

BLEU分数或ROUGE分数

AI大模型的不同产品与发展脉络

分析工业物联网、预测性维护、质量控制、供应链优化等应用场景

大模型实现设备故障预警

大模型在不同工业细分领域的应用现状

【授课专家】

邹老师,长春工业大学人工智能研究院院长,工程学术带头人、华东建筑设计研究总院研究员、山东交通学院客座教授、南昌航空大学硕士生导师、中国软件行业协会专家委员、上海市计划生育科学研究所特聘专家、天津大学创业导师、中华中医药学会会员、中国医药教育协会老年运动与健康分会学术委员;领导睿客邦与全国二十多所高校、国企建立了AI联合实验室,完成50多个深度学习实践项目,广泛应用于医疗、交通、农业、气象、银行、电信等多个领域。

【费用标准】

线上3800元/人、线下4800元/人(课后均可获得线上回放),含上课期间专家授课费、教材资料费等,参加线下课程食宿费用自理;支持公务卡在线支付,银行对公转账,提供正式增值税电子发票或纸质发票。

【学时证明】

学员经培训可获得:课程培训结业证书;该证书表明持有者已通过相关考核,具备相应的专业知识和专业技能,并作为聘用、任职、定级和晋升的重要参考依据。


推荐文章
评论(0)
分享到
转载我的主页