红蜘蛛图谱项目
1.通过完善系统的知识图谱知识体系,涵盖知识表示、知识抽取、知识存储、知识补全、知识推理相关内容
2.高效的NER实体抽取解决方案,以及RE关系抽取解决方案,涵盖模型方法和规则方法,双渠道保证信息抽取的高效性和完备性
3.基于前缀树和意图识别,搭建红蜘蛛医疗机器人,通过访问Neo4j图数据库达成多轮医疗对话的功能
金融关系分析、商品推荐、品牌挖掘、医疗辅助分析
蜂窝头条投满分项目
1.项目背景介绍:投满分项目在今日头条中的作用,数据集的样式等。快速实现基于随机森林的基线模型1.0,和基于FastText的基线模型2.0
2.迁移学习优化:实现基于BERT的迁移学习模型搭建和训练,并对比模型关键指标的提升
3.模型的量化:实现对大型预训练模型的量化,并对比原始模型与量化模型的差异
4.模型的剪枝:实现对模型的剪枝的操作,包含主流的对特定网络模块的剪枝、多参数模块的剪枝、全局剪枝、用户自定义剪枝
5.迁移学习微调:包含BERT模型微调、AlBERT模型、T5模型、Transformer-XL模型、XLNet模型、Electra模型、Reformer模型的详细介绍,以及消融实验的介绍
6.模型的知识蒸馏:详细解析知识蒸馏的原理和意义,并实现知识蒸馏模型的搭建,对比知识蒸馏后的新模型的优异表现,并做详细的对比测试
金融文本分类、情感分析、医疗报告的自动分类、新闻内容的自动分类
微博文本信息抽取项目
1.项目介绍:理解信息抽取任务以及文本分类的业务意义及应用场景
2.项目流程介绍:完整的实现整个任务的逻辑框架
3.数据预处理:修改数据格式适配大模型训练、数据张量的转换等
4.ChatGLM-6B模型解析,LoRA方法讲解、P-Tuning方法解析
5.基于ChatGLM-6B+LoRA方法实现模型的训练和评估
6.基于ChatGLM-6B+P-Tuning方法实现模型的训练和评估
7.基于Flask框架开发API接口,实现模型线上应用
问答系统、知识图谱构建、医疗行业信息抽取
物流信息咨询智能问答项目
1.项目介绍:理解什么是RAG系统
2.项目流程梳理:从本地知识库搭建,到知识检索,模型生成答案等流程介绍
3.数据预处理:本地文档知识分割、向量、存储
4.LangChain框架的详解讲解:6大组件应用原理和实现方法
5.基于本地大模型ChatGLM-6B封装到LangChain框架中
6.实现LangChain+ChatGLM-6B模型的知识问答系统搭建
客户服务、医疗咨、新闻和媒体
新零售行业评价决策系统
1.项目意义:新零售行业背景和需求
2.BERT模型介绍:架构、预训练任务、应用场景
3.P-Tuning方法的原理:定义、作用、优点
4.PET方法的原理:定义、作用、优点
5.模型训练调优:数据清洗、参数选择、模型训练
6.模型性能评估:构建评估指标(Precision、Recall)、评估方法(混淆矩阵)
金融行业、供应链管理、市场营销、保险航月、电信行业
大模型AI Agent开发应用
1.大模型Function Call函数调用功能的原理和实现方式
2.开发Function Call实现大模型:实时查询天气、订机票、数据库查询等功能
4.解析Assistant API的原理及应用方式
5.基于Assistant API开发实用的聊天机器人应用
6.拆解AI Agent的原理及对比与传统软件的区别
7.基于CrewAI框架开发自动写信并发送邮件的AI Agent
客户服务于支持、个人助理、金融服务、制造业、人力资源
多风格英译汉翻译机项目
1.多风格翻译机的介绍、应用场景
2.翻译机前端界面的搭建:stream、streamlit、websocket
3.星火大模型API的调用方式:key、value
4.翻译风格的设计:提示词工程的应用
电子商务平台、时尚零售、娱乐行业、社交媒体
基于讯飞大模型定制平台的财经新闻项目
1.准备数据集:正负面新闻标题数据集中包含17149条新闻数据,包括input和target两个字段
2.上传数据集:大模型定制训练平台
3.模型定制:BLOOMZ-7B是一个由BigScience研发并开源的大型语言模型(LLM),参数量为70亿。它是在一个包含46种语言和13种编程语言的1.5万亿个tokens上训练的,可用于多种自然语言处理任务
4.模型训练:LoRa、学习率、训练次数
5.效果评测:提升效果(%)=优化后(正确/已选) - 优化前(正确/已选)
6.模型服务:可使用webAPI的方式进行调用,也可在线体验服务的应用
创意产业、文学和出版、新闻和媒体、游戏和应用开发
没有工作经验,期待学习有前景的AI大模型技术
零基础,对AI人工智能或者大模型感兴趣,有想法致力于通过AI人工智能或AI大模型解决实际问题
具备Java、前端、大数据、运维等开发经验,面临职场瓶颈期,期待自我提升
黑马程序员AI人工智能学员 年度就业报告
学员就业信息统计数据为数据库中实时获取的真实相关数据,非广告宣传
大模型专家平均经验10年、985/211研究生学历背景团队
课程大纲
入门试学班
1. 大模型开发入门
高手班
1. 大模型语言进阶 2. 提示词工程 3. 智能体开发(Coze+Dify) 4. 智能体开发(Coze+Dify)项目 5. 大模型核心开发技术 6. NewsCompass投满分项目 7. LangChain框架 8. RAG项目 9. 智能体项目1(ReAct智能体) 10. 智能体项目2(多智能体) 11. 大模型核心运行机制 12. 大模型微调开发基础及项目 13. CV图像分析基础 14. 多模态大模型应用开发
AI大模型开发V6.5版本
课时:8天 技术点:60项 测验:1次 学习方式:线下面授
01_掌握搭建聊天机器人的步骤| 02_掌握搭建聊天机器人必备语言和工具| 03_掌握大模型必备Python语言的基本语法| 04_掌握分支结构的用法| 05_掌握循环结构的用法| 06_掌握容器类型相关的概述| 07_掌握字符串的相关操作| 08_掌握容器类型的遍历 | 09_掌握列表-字典的相关操作| 10_掌握函数的各种参数| 11_掌握函数的引用相关| 12_独立完成匿名函数的编写和使用| 13_掌握文件的相关操作| 14_掌握异常的处理方式| 15_熟悉Streamlit框架搭建页面
1. AI大模型入门与应用零基础入门AI大模型开发的开始,包含了以下技术点:
01_AI大模型项目介绍和环境搭建:AI大模型搭建聊天机器人需求分析;AI大模型搭建聊天机器人步骤和流程;AI大模型搭建聊天机器人必备语言和工具项目环境搭建| 02_AI大模型入门与应用:通用AI大模型和垂直领域大模型应用实操,包括AI赋能办公、运营、文生图多模态等多种应用场景,帮助学生熟悉AI大模型行业落地场景,为后续开发提供支持
2. 大模型必备Python基础语法掌握大模型必备Python基础语法,包含了以下技术点:
01_学习大模型必备Python语言| 02_Python解释器和Pycharm开发工具安装| 03_注释和定义变量| 04_标识符和关键字以及命名规范| 05_输入和输出函数| 06_算数运算,比较运算,逻辑运算,赋值运算
3. 大模型必备Python控制语句掌握大模型必备Python控制语句,包含了以下技术点:
01_分支语句 if elif else| 02_循环结构 while for| 03_跳转语句 break 和 continue
4. 大模型必备Python容器掌握大模型必备Python容器,包含了以下技术点:
01_循环嵌套-99乘法表| 02_循环案例-猜数字游戏| 03_不同容器的介绍和定义| 04_索引操作| 05_切片操作| 06_字符串的常见功能| 07_容器的遍历| 08_列表详解| 08_元组详解| 10_字典容器的使用| 11_容器类型嵌套案例-随机分配办公室| 12_容器类型-公共的运算符和方法
5. 大模型必备Python函数掌握大模型必备Python函数,包含了以下技术点:
01_函数入门| 02_函数的参数和返回值| 03_变量作用域| 04_函数的多种参数| 05_拆包和变量交换| 06_引用和匿名函数| 07_递归实操 【综合案例】斐波那契数列
6. 大模型必备Python文件和异常处理掌握大模型必备Python文件和异常处理,包含了以下技术点:
01_文件的读写入门| 02_中文乱码和路径问题| 03_文件复制| 04_os模块| 05_with-open语法| 06_异常处理方式| 07_导入包和模块
7. 基于Streamlit+LangChain搭建智能聊天机器人掌握Python调用大模型API的能力,包含了以下技术点:
01_Streamlit框架| 02_LangChain框架组成和开发流程| 03_通义百炼大模型平台| 04_通义大模型API调用
课时:8天 技术点:80项 测验:1次 学习方式:线下面授
01_掌握面向对象编程思想| 02_独立运用面向对象思想完成指定需求| 03_掌握深拷贝和浅拷贝代码原理| 04_独立完成面向对象版-学生管理系统| 05_掌握闭包, 装饰器的用法| 06_独立完成网编案例代码实现| 07_掌握多进程, 多线程相关代码实现| 08_掌握上下文管理器对象的使用| 09_掌握生成器, 迭代器的用法| 10_理解正则表达式的相关运用| 11_掌握MySQL基本操作| 12_掌握Pandas基本操作
1. Python面向对象进阶从逐步建立起面向对象编程思想,再到会使用对象,到创建对象,再到真正理解为什么封装对象。包含了以下技术点:
01_面向对象入门:面向对象和面向过程;类和对象的区别;定义类和属性;定义方法和魔法方法;面向对象-案例;【实战案例】面向对象综合实战案例| 02_面向对象进阶:继承的使用;私有权限;类属性和对象属性;类方法和静态方法;面向对象版 -学生管理系统;【实战作业】面向对象版-学生管理系统(采取部分实战)
2. Python高阶语法主要学习Python高阶语法,包含了以下技术点:
01_闭包+装饰器:深拷贝, 浅拷贝详解;闭包详解;装饰器详解;【实战案例】装饰器实战案例| 网编+多进程入门:网编相关概述介绍;网编案例-客户端发送文件到服务器端;并行和并发详解;多进程-代码实现;【实战案例】网编案例-客户端和服务器端交互 02_多线程详解:多线程代码实现;守护线程详解;互斥锁详解;线程同步详解;上下文管理器详解| 03_Json数据文件读取和处理;【实战案例】Json数据文件读取和处理| 04_生成器,正则详解:生成器详解;迭代器详解;正则表达式详解;【实战案例】正则表达式文本匹配综合案例
3. MySQL主要学习MySQL数据库的核心知识,包含了以下技术点:
01_数据库介绍、MySQL 数据库的安装使用:数据库基本操作;数据库概念和作用;MySQL数据类型;数据完整性和约束| 02_数据表操作:数据库;表操作命令;表数据操作命令| 03_基本查询操作:where子句;分组聚合;连接查询;外键的使用;PyMySQL
4. Pandas主要学习Pandas核心知识,包含以下技术点:
01_Numpy:Numpy基础概念与操作;运算优势;数组的属性;数组的形状;Numpy实现数组基本操作| 02_Pandas的DataFrame、数据清洗、数据读取:Pandas统计分析;Pandas数据整理;Pandas透视表;Pandas可视化
课时:2天技术点:20项测验:1次学习方式:线下面授
01_能够理解和应用提示词工程原理| 02_掌握优化技巧并完成金融业务场景的实际问题解决
基于Zero-shot零样本学习能力,通过DeepSeek/QWen/ChatGLM模型对金融领域数据进行分类、信息抽取、文本匹配,更好的解决业务问题。
01_提示词撰写解决方案| 02_文本分类提示词解决方案| 03_信息抽取提示词解决方案| 04_文本匹配提示词解决方案
1. 什么是Prompt Engineering| 2. Prompt Engineering的原理以及实际应用的优化技巧| 3. 如何利用Prompt Engineering完成实际金融业务
课时:1天 技术点:20项 测验:1次 学习方式:线下面授
01_能够掌握 Coze 平台的使用| 02_掌握快速从 0 到 1 构建多样化智能体工作流与应用程序| 03_掌握Coze智能体开发范式| 04_能够掌握Dify平台的集成开发与私有化部署
1. 智能体开发(Coze)主要学习Coze核心操作,包含了以下技术点:
01_智能体介绍| 02_Coze智能体开发| 03_Coze本地化部署
2. 【案例】Coze搭建智能体基于Coze搭建智能体,快速从0到1搭建工作流和应用程序,包含了以下技术点:
01_案例:智能问答助手| 02_案例:旅游规划小精灵| 03_案例:智能助教| 04_案例:智能面试官| 05_案例:口语练习专家 案例讲2练3
3. 【项目】基于Coze的技术面试助手基于Coze工作流,为黑马程序员AI学科学生临近毕业时面试相关的问题进行提效。结合LLM、ASR、TTS、RAG等技术,为面试中常见的效率痛点赋能,代替部分人工,缓解教师压力,包含了以下技术点:
01_简历修改:基于OCR插件、prompt、数据库查询,实现简历中各类常见问题的召回和修改建议。 以及进阶功能:违禁词过滤、业务背景重复率统计等。辅助学生编写更好的简历| 02_面试录音分析:基于多模态大模型实现ASR,基于prompt实现面试官、应试者角色划分,最终实现文字提取、摘要以及建议,提面试高录音分析的效率| 03_面试题生成:基于黑马面试宝典使用RAG技术结合学生的简历,结合简历上的技能点、业务背景、毕业时间、专业等信息,生成个性化的面试题题库| 04_模拟面试:基于简历和面试题生成流水线等功能,基于老师音色克隆面试官音色,结合ASR模型、TTS模型等技术,实现实时语音面试
4. 智能体开发(Dify)主要学习Dify核心操作,包含了以下技术点:
01_Docker安装与部署| 02_Dify安装与使用| 03_基于Dify搭建本地知识库
5. 【项目】基于Dify实现Agent开发应用项目基于Ollama私有化部署DeepSeek R1:8b模型;基于Docker结合Dify大模型应用开发平台构建可视化聊天界面,包含了以下技术点:
01_大模型私有化部署:Ollama、DeepSeek/QWen| 02_聊天机器人搭建:基于Dify搭建可视化聊天机器人| 03_RAG构建:基于Dify搭建本地知识库| 04_Agent智能体构建:基于Dify搭建Agent智能体
6. 智能体平台开发实战【实战】多业务场景项目实战,包含了以下技术点:
01_多业务场景项目实战
课时:3天学习方式:线下面授
基于Coze的技术面试助手项目
基于Dify实现Agent开发应用项目
基于Coze工作流平台,结合LLM、ASR、TTS、RAG等技术,为黑马程序员AI学科学生构建面试全流程智能辅助系统,实现简历修改、面试录音分析、个性化面试题生成和实时语音模拟面试等功能。
01_能够掌握Coze智能体开发范式| 02_能够独立完成多场景智能体应用的构建与部署| 03_能够实现工作流自动化与业务赋能
01_实现基于插件完成PDF、DOCX等文档转文本到分析处理的全流程解决方案| 02_实现基于ASR技术实现录音文件转文本到分析处理的全流程解决方案| 03_实现基于知识库结合PDF实现精准内容生成的解决方案| 04_实现在工作流中读写数据库和知识库的解决方案| 05_实现父子模式多Agent架构自主规划执行解决方案
01_简历修改:基于OCR插件、prompt、数据库查询,实现简历中各类常见问题的召回和修改建议。 以及进阶功能:违禁词过滤、业务背景重复率统计等。辅助学生编写更好的简历| 02_面试录音分析:基于多模态大模型实现ASR,基于prompt实现面试官、应试者角色划分,最终实现文字提取、摘要以及建议,提面试高录音分析的效率| 03_面试题生成:基于黑马面试宝典使用RAG技术结合学生的简历,结合简历上的技能点、业务背景、毕业时间、专业等信息,生成个性化的面试题题库| 04_模拟面试:基于简历和面试题生成流水线等功能,基于老师音色克隆面试官音色,结合ASR模型、TTS模型等技术,实现实时语音面试
基于Docker部署Dify平台,结合Ollama私有化模型与RagFlow构建企业级评估智能体,实现知识库管理、可视化聊天界面及Agent系统开发。
01_能够掌握Dify平台的集成开发与私有化部署| 02_能够完成RAG知识库构建和智能评估Agent的系统搭建
01_项目基于Ollama私有化部署DeepSeek R1:8b模型| 02_基于Docker结合Dify大模型应用开发平台构建可视化聊天界面
01_大模型私有化部署:Ollama、DeepSeek/QWen| 02_聊天机器人搭建:基于Dify搭建可视化聊天机器人| 03_RAG构建:基于Dify搭建本地知识库| 04_Agent智能体构建:基于Dify搭建Agent智能体
课时:10天 技术点:70项 测验:1次 学习方式:线下面授
01_能够掌握机器学习和深度学习核心基础| 02_能够完成 Bert及GPT核心Transformer架构分类的使用| 03_能够完成分类模型基础搭建
1. 机器学习基础该部分主要学习机器学习基础,包含以下技术点:
01_术语| 02_建模流程| 03_核心框架| 04_评估指标| 05_分类算法/回归算法/聚类算法基础及案例
2. 深度学习该部分主要学习深度学习,包含以下技术点:
01_Pytorch框架| 02_Pytorch安装| 03_Pytorch构建神经网络| 04_Pytorch案例实战
3. NLP核心技术该部分主要学习NLP核心技术,包含以下技术点:
01_词向量(Word Embedding)| 02_Transformer(基本原理、实现流程)| 03_BERT原理及使用| 04_FastText原理及构建流程| 05_BERT优化模型| 06_迁移学习微调
课时:7天技术点:100项测验:1次学习方式:线下面授
01_基于大规模业务留存数据构建快速文本分类系统| 02_快速搭建短文本精准分类模型| 03_基于随机森林和FastText搭建快速基线模型, 验证业务通道的能力| 04_基于BERT的迁移学习优化模型搭建的能力| 05_实现神经网络量化的优化与测试| 06_实现神经网络剪枝的优化与测试| 07_实现神经网络知识蒸馏的优化与测试| 08_更多主流预训练模型的优化与深度模型剖析| 09_BERT模型在生成式任务和工程优化上的深入扩展
NewsCompass投满分项目是结合今日头条真实场景下的海量数据, 快速搭建随机森林和FastText的基线模型, 以验证商业化落地的可行性. 更多聚焦在深度学习的优化方法上, 搭建基于BERT的初版微调模型, 应用量化,剪枝,预训练模型微调,知识蒸馏等多种手段,反复迭代,反复优化模型的离线效果,在线效果。
01_海量文本快速分类基线模型解决方案| 02_基于预训练模型优化的解决方案| 03_模型量化优化的解决方案| 04_模型剪枝优化的解决方案| 05_模型知识蒸馏优化的解决方案| 06_主流迁移学习模型微调优化的解决方案
01_随机森林(集成学习)| 02_基线模型(FastText)| 03_BERT优化| 04_模型量化、剪枝、知识蒸馏| 05_基于大模型文本分类|
课时:2天技术点:80项测验:0次学习方式:线下面授
01_掌握LangChain工具的基本使用方法,了解如何通过LangChain构建和管理语言模型应用| 02_熟悉ChatGLM-6B模型的应用,了解如何将大语言模型与本地知识库结合,实现高效准确的问答功能| 03_理解向量知识库的基本概念和技术原理,掌握如何构建和使用向量知识库来存储和检索知识信息| 04_掌握知识库的构建方法,从数据采集、处理到存储,学习如何将电商物流相关信息整合到知识库中| 05_理解RAG系统的基本原理和实现方法,学习如何结合检索和生成技术,提升问答系统的准确性和实用性| 06_从零开始搭建一个问答机器人,掌握整个系统的设计、实现和部署过程
基于物流垂直领域的RAG智能问答项目基于LangChain+Qwen/DeepSeek/ChatGLM-6B实现电商物流本地知识库问答机器人搭建,让模型根据本地信息进行准确回答,解决大模型的“幻觉”问题,实现精准问答。通过项目皆在掌握LangChain工具的基本使用方式,理解向量知识库以及实现知识库的技术原理, 快速构建检索增强生成(RAG)系统。
01_LangChain工具使用介绍解决方案| 02_ChatGLM-6B模型集成到问答系统中的解决方案| 03_向量知识库的构建和检索的解决方案| 04_搭建RAG系统的解决方案
01_项目介绍:理解什么是RAG系统| 02_项目流程梳理(从本地知识库搭建,到知识检索,模型生成答案等流程介绍)| 03_数据预处理:本地文档知识分割,向量,存储| 04_LangChain框架的详解讲解:6大组件应用原理和实现方法| 05_基于本地大模型ChatGLM-6B封装到LangChain框架中| 06_实现LangChain+ChatGLM-6B模型的知识问答系统搭建
课时:8天学习方式:线下面授
基于职业教育领域RAG智慧问答系统项目
基于人力资源场景的RAG的简历推荐系统项目
基于IT职业教育行业答疑大模型抽取RAG解决方案,通过项目学习完成企业级RAG系统完整流程搭建与测试及优化。从智能查询路由设计、数据处理与多源集成、模型微调到后端服务与前端开发完成全栈RAG系统构建。
01_了解LangChain基本概念、明确LangChain主要组件的作用、了解LangChain常见的使用场景| 02_掌握基于LangChain+ChatGLM-6B模型实现本地知识库的问答实现原理+过程| 03_RAG系统开发与优化:掌握从数据分片到答案生成的RAG全流程,熟练应用 HyDE、子查询等检索增强策略提升系统性能| 04_大模型应用实践:能够集成 LLM(如 OllamaLLM)并设计高效 Prompt,解决知识问答中的业务定制化需求| 05_智能查询路由设计:实现规则、相似度和 LLM 三层路由,精准分发查询并优化复杂意图识别效率| 06_后端服务与前端开发:使用 FastAPI 开发高并发 API 并通过 Gradio 构建交互界面,满足企业级服务与用户体验要求| 07_数据处理与多源集成:熟练处理结构化与非结构化数据,结合 MySQL 和向量搜索打造高效知识检索系统| 08_企业级问题解决能力:通过日志调试和高并发设计,具备定制化开发与性能优化的实战技能,适配智能客服等场景
01_数据库查询优化:BM25 + Redis 缓存解决方案| 02_语义检索:Milvus 混合向量检索解决方案| 03_查询分类:BERT 分类器解决方案| 04_动态检索策略:LLM 驱动的策略选择解决方案| 05_答案生成:LLM + RAG 提示模板解决方案| 06_性能优化:Redis 缓存 + 模块化设计解决方案| 07_日志与监控:统一日志系统(logging)解决方案| 08_配置管理:ConfigParser + config.ini解决方案
01_智能问答系统架构:FAQ 系统与 RAG 系统的区别与应用场景| 02_数据库技术:MySQL 表查询;Redis 键值存储与缓存机制;Milvus 向量数据库的架构与索引类型| 03_检索算法:BM25 算法原理;密集向量 & 稀疏向量混合检索;重排序的作用| 04_query的意图识别+改写:BERT 分类器的训练与推理;LLM的调用与提示设计;查询分类与动态检索策略的实现逻辑| 05_企业级开发实践:模块化代码设计与代码复用;配置文件(config.ini)与环境变量管理;日志系统设计与错误处理
项目基于向量数据库和 LLM 构建一个端到端、可水平扩展的检索增强生成(RAG)系统,支持对异构简历(PDF/DOCX/JPG/PNG)进行自动解析、结构化、语义索引与多轮对话式推荐。系统以向量数据库为核心存储,以 LLM 为推理中枢,以 Agent 框架为调度单元,面向企业 HR 及猎头平台提供秒级、可追溯、可解释的候选人推荐服务。
01_能够掌握文档智能处理、向量化索引、RAG 系统开发及 Agent 框架应用| 02_能够完成可扩展的简历推荐系统部署。
01_基于LangChain+OpenAI实现异构简历(PDF/DOCX/JPG/PNG)智能解析与结构化提取| 02_使用Milvus+BGEM3混合嵌入+ElasticSearch实现高级向量索引与多路召回| 03_构建支持参数过滤、查询重写与历史对话的异步RAG链生成JSON候选人推荐| 04_基于SmartRecruitAgent框架实现意图识别、多轮追问与上下文候选人筛选的智能代理| 05_集成Streamlit前端与05_Milvus/MongoDB/Elasticsearch多数据库持久化的DevOps配置| 06_使用Ragas框架对RAG系统进行端到端Faithfulness/Answer Relevancy/Context Precision评估优化
01_文档智能| 02_向量化与索引| 03_检索增强生成| 04_智能代理| 05_配置与 DevOps
课时:5天技术点:100项测验:0次学习方式:线下面授
01_能够掌握ReAct智能体开发流程| 02_能够完成RAG工具调用、多维度评估系统搭建及生产级服务部署| 03_能够具备构建可迭代优化的C端智能客服系统的能力
项目是一个面向消费者(toC)的智能客服系统,旨在为用户提供全周期的扫地机器人相关服务并根据用户使用习惯生成使用报告,为用户提供使用优化建议。该系统基于RAG技术及ReAct框架构建,涵盖产品咨询、使用报告生成与优化建议。通过一个统一的Agent界面,为用户提供高效、准确且个性化的支持,提升用户体验与满意度,结合三位一体评估体系和Flask/Streamlit部署实现商业化落地。
01_基于ReAct框架实现的Agent| 02_RAG工具实现本地知识库构建| 03_Prompt Engineering实现用户使用报告的生成| 04_Flask的模型部署| 05_基于Streamlit的前端服务构建
01_数据来源:扫地机器人的产品手册及相关知识库(基础与技术类、产品功能类、智能交互类、维护与保养类、选购指南类、使用技巧类、配件与耗材类、安全与隐私类、特殊场景类等问题)| 02_基于ReAct框架实现的Agent,包括推理(Reasoning)模块以及行动(Acting)模块| 03_使用RAG工具实现本地知识库构建。(文档读取模块、向量数据库模块、RAG工具调用模块)| 04_使用大模型Deepseek v3结合Prompt Engineering实现用户使用报告的生成| 05_构建三位一体评估体系,针对检索内容(Precision、Recall、mrr)、生成内容(ROUGE-1、ROUGE-L、BERTScore、Faithfulness)、总性能(平均延时、QPS)| 06_构建日志打印模块,重点监控工具的运行情况。(控制台日志+生产环境日志)| 07_基于Flask的模型部署(服务端+客户端)、基于Streamlit的前端服务
课时:5天学习方式:线下面授
基于A2A的SmartVoyage旅行智能助手
基于多场景的Agent智能工单项目
SmartVoyage 是一个智能旅行助手系统,使用 A2A (Agent-to-Agent) 协议构建多代理协作框架,支持用户查询天气和票务信息。系统包括 LLM 路由服务器(意图识别)、天气代理服务器(查询天气数据库)、票务代理服务器(查询票务数据库)、MCP 工具服务器(数据库接口)、数据采集脚本和 Streamlit 前端客户端。用户输入查询(如“北京天气”或“北京到上海火车票”),系统通过 LLM 路由到合适代理,代理生成 SQL 查询 MCP 数据库,返回结果显示在界面。
01_能够掌握 A2A 多代理框架开发、意图识别与数据库查询技能 02_能够完成交互式旅行助手系统的构建
01_基于Python-a2a协议实现多代理A2A协作框架| 02_使用LangChain+DeepSeek构建LLM路由服务器意图识别与动态路由| 03_实现MCP工具服务器标准化MySQL查询接口| 04_天气代理服务器LangChain SQL生成与MCP实时天气数据库查询集成| 05_票务代理服务器多类型动态SQL生成与结果友好格式化| 06_基于Streamlit开发A2A多代理实时交互前端客户端
01_LLM 路由服务器(意图识别)| 02_天气代理服务器(查询天气数据库)| 03_票务代理服务器(查询票务数据库)| 04_MCP 工具服务器(数据库接口)| 05_数据采集脚本| 06_Streamlit 前端客户端
大型ToC企业中的客服团队往往是人力外包,对公司业务细节的了解程度不够,需要和产研团队多次沟通才能完成一次工单的处理,效率低下。 同时,随着AI的发展,工单的处理也可以基于大模型+RAG+funcation call能力进行提效,部分工单自动处理,从而节省部分客服人力资源。 本系统结合大模型能力,融合多种AI技术(RAG+多Agent+MCP)等,结合Kafka消息队列、PostgreSQL向量检索和Docker容器化部署,完成大型企业工单的判定、处理、建议与知识库实时迭代等全流程流转闭环,解决传统客服流程低效问题。
01_能够掌握企业级智能工单系统架构设计 02_实现基于规则过滤、查询改写、意图识别的全流程自动化处理 03_掌握具备复杂业务场景下多智能体系统的开发与运维能力。
01_使用无侵入的方式实时处理业务系统数据的解决方案| 02_实现企业私有化数据脱敏的解决方案| 03_实现基于多层模型实现复杂分类的解决方案| 04_实现基于RAG+MCP调用实现融合知识库+API的上下文工程的解决方案| 05_实现动态更新知识库的解决方案| 06_实现docker镜像构建和服务器部署的企业部署解决方案
01_项目冷启动阶段,基于大模型 + NLP算法,完成工单数据的清洗和工单、业务知识库的搭建(PG),工单会进行脱敏| 02_消费工单的Kafka消息队列数据,并基于规则过滤出来需要处理的工单| 03_实现query改写,提高检索内容的准确性,对PG进行检索时采用上下文+向量混合检索的方式,结合重排序模型实现查询内容的准确性| 04_实现意图识别和槽位填充, 基于用户的query基于MCP协议执行funcation call,在上下文中补充用户的实时数据作为上下文信息| 05_实现知识库实时迭代, 实现知识库数据实时更新,保证内容是最新的| 06_Docker镜像的构建和生产环境docker-compose模式部署
课时:5天 技术点:80项 测验:1次 学习方式:线下面授
01_能够理解 Transformer 的注意力机制与架构设计,并掌握基于 Transformer 的翻译任务开发技能| 02_能够使用 Hugging Face 库对预训练模型进行全量微调,完成特定 NLP 任务| 03_能够理解主流大模型的架构特性与预训练原理,掌握为微调任务选择合适模型的能力
1. 大模型Transformer架构该模块主要学习大模型Transformer架构,包含以下技术点:
01_词向量(Word Embedding)| 02_大模型Transformer架构的注意力机制 | 03_大模型Transformer架构(encoder、decoder、encoder+decoder)| 04_大模型Transformer翻译任务实战
2. 大模型迁移学习该部分主要学习大模型迁移学习,包含以下技术点:
01_迁移学习的预训练模型和微调阶段| 02_NLP中的常用预训练模型(BERT、GPT-1、GPT-2)| 03_Hugging Face预训练模型仓库| 04_Huggingface Transformers库使用(提供了NLP领域预训练语言模型结构模型和调用框架)| 05_基于微调方式实现中文分类、中文填空、句子关系等任务
3. 大模型主流模型运行机制该部分主要学习大模型主流模型运行机制,包含以下技术点:
01_GPT/DeepSeek/QWen基础| 02_GPT/DeepSeek/QWen架构变化| 03_GPT/DeepSeek/QWen的预训练任务| 04_基于DeepSeek/QWen预训练+微调任务实战
课时:5天学习方式:线下面授
【LoRA微调】微博文本信息抽取项目
【QLoRA微调】QWen微调文本摘要项目
基于中医药知识图谱项目
项目基于 Qwen/DeepSeek,通过 LoRA 和 P-Tuning 实现微博文本信息抽取+文本分类的多任务,通过一个大模型同时解决多种任务开发和应用。
01_了解和掌握大语言模型的基本原理和架构,特别是ChatGLM-6B模型的结构和工作机制掌握大模型LoRA微调技术,通过微调预训练的大模型来适应特定任务的需求| 02_掌握大模型P-Tuning微调技术,对大模型进行高效的参数调整,增强其在特定任务上的表现| 03_理解和应用多任务学习的概念,通过一个模型同时解决文本信息抽取和文本分类两种任务,提高模型的综合能力和应用效率| 04_掌握文本信息抽取技术,从非结构化的文本数据中提取有价值的信息,如实体、关系、事件等| 05_学习文本分类的基本原理和方法,掌握如何将文本数据按照预定义的类别进行归类通过Flask框架,学习如何开发和部署API接口,使模型能够通过网络服务被访问和使用
01_联合任务数据预处理适配模型训练的解决方案| 02_实现ChatGLM-6B+LoRA训练的解决方案| 03_实现ChatGLM-6B+P-Tuning训练的解决方案| 04_基于Flask框架实现模型API接口开发的解决方案
01_理解信息抽取任务以及文本分类的业务意义及应用场景| 02_数据预处理:修改数据格式适配大模型训练、数据张量的转换等| 03_Qwen/DeepSeek模型解析,LoRA方法讲解、P-Tuning方法解析| 04_基于Qwen/DeepSeek+LoRA方法实现模型的训练和评估| 05_基于Qwen/DeepSeek+P-Tuning方法实现模型的训练和评估| 06_基于Flask框架开发API接口,实现模型线上应用
项目以QWen模型为核心,借助DeepSpeed框架实现训练过程的加速优化。同时采用了GPTQ和QLoRA技术对模型进行量化处理,旨在进一步提升模型的推理速度。最终,通过Vllm平台完成了模型的部署,实现了对文本中关键信息的自动化抽取,完成信息抽取的任务。
01_掌握 QLoRA 量化微调与并行计算技术| 02_能够完成文本摘要模型的高效训练与部署
01_大模型并行计算解决方案| 02_大模型量化解决方案| 03_大模型部署解决方案| 04_大模型推理优化解决方案
01_数据集处理、模型构建、模型训练、模型预测| 02_大模型并行计算:DeepSpeed,数据并行、流水线并行、模型并行| 03_大模型量化:训练量化方法QLoRA,训练后量化方法GPTQ| 04_模型部署和推理优化框架:vLLM和oLLAMA
“草本通” 项目致力于解决中医药知识难以理解、碎片化严重、检索效率低 等问题,通过爬虫、DeepSeek+LangChain实体抽取、Neo4j图谱构建与LangGraph多智能体协同,打造一个可理解、可对话、可传播、可拓展 的智能知识服务平台。系统融合多种AI技术,支持从数据采集到语义问答、图谱构建、再到内容生成与平台发布的完整AI闭环。
01_能够掌握知识图谱构建、多智能体流程调度及生成式应用开发| 02_能够具备垂直领域知识智能化平台的搭建能力
01_多源中医药数据爬取与联合任务数据预处理适配知识图谱构建的解决方案| 02_基于 Neo4j + FAISS 的中医药知识图谱检索增强(RAG)解决方案| 03_基于 LangGraph 的中医药智能问答与多意图工作流编排解决方案| 04_基于 FastAPI 实现 LangGraph 智能体流式 API 接口开发的解决方案| 05_基于LamaFactory微调大模型进行实体关系生成的解决方案
01_利用爬虫自动采集中药、方剂、功效、症状、疾病等原始文本| 02_使用大语言模型(DeepSeek)+ LangChain 进行实体与关系抽取| 03_构建 Neo4j 图数据库与 Faiss 向量检索双引擎,实现结构化查询与语义匹配| 04_基于 LangGraph 搭建多智能体协同系统,管理复杂问答流程| 05_提供基于 Streamlit 的网页端交互式问答界面| 06_自动生成小红书风格图文内容,并实现一键发布,实现从“知识获取”到“内容传播”的闭环
课时:6天 技术点:70项 测验:0次 学习方式:线下面授
01_能够掌握 CNN、ResNet、Yolo 及分割算法的核心原理| 02_能够具备开发图像分类与目标检测应用的能力
1. CV图像分析该部分主要学习CV图像分析核心知识,包含以下技术点:
01_CNN| 02_ResNet原理| 03_Yolo V系列算法| 04_图像分类与分割(Unet、MaskRCNN)
课时:6天技术点:80项测验:0次学习方式:线下面授
01_能够理解 AIGC 与 Diffusion 模型原理| 02_掌握 Stable Diffusion 的模型构建与微调| 03_能够完成图像生成小程序的开发
项目基于Stable Diffusion,利用稳定扩散过程,通过逐渐模糊和清晰化图像来实现图像生成的过程。这种方法在图像生成领域具有广泛的应用,项目可扩展于艺术创作、虚拟场景生成、数据增强等。
01_图像生成的常见解决方案| 02_文图匹配的解决方案| 03_扩散模型噪声去除的解决方案| 04_潜在空间扩散模型的解决方案| 05_扩散模型训练的解决方案| 06_小程序搭建的解决方案
01_AIGC的详解:AIGC简介,类型,应用场景,产品形态| 02_图像生成算法:GAN,VAE,Diffusion,DALLe,imagen| 03_StableDiffusion的详解:Diffusion,latent diffusion;satble diffusion| 04_stablediffusion实践:模型构建,模型训练,lora,dreambooth,图像生成效果| 05_图像生成小程序搭建:基于stablediffusion构建图像生成的小程序
课程名称:主要针对:主要使用开发工具:
↑ 上拉查看下阶段课程
专职课研团队专职教学团队
标准化研发人才画像
多维面试(五面)
研究院小组诊断测评
全链路面试流程监控
课研人员素质考核
课程设计考核
大纲设计考核
讲义撰写考核
视频录制考核
课堂试炼考核
产品全方位审评
考核答辩
技术开源历练
技术私享会
大牛技术沙龙
企业技术共享
应用市场调研+大
数据分析
获取前沿发展方向
前沿热门课题深入
剖析+技术攻坚,
保障课程前瞻性
基于市场主流技术研
发解决方案,
应对职场难题
基于热门行业领域联合
大牛顾问团,
研发“大厂级”项目
来自华为、IBM等百人大牛团,每年斥巨资,
研发行业标杆优质课程
标准化讲师画像初试技术深度
复试授课质量终试价值观
定制个性化考核方案讲师素质考核
视频录制考核排课、备课产出物考核
教育心理考核教学方法考核
课堂试讲考核正式授课答辩
学员满意度打分阶段课程评审
多维培养计划讲师晋升通道
情景式教学法将教学过程形象化的一种授课方法,集风趣、
知识、故事场景于一体,可大大提高学员对
知识的理解和吸收
场景式授课通过分析场景特点、梳理场景流程、呈
现给定场景下技术的实现3个步骤,向学
员清晰的展现了开发的全流程。
Open教学法OPEN
教学法是由传智教育培训院首创的一套
教学方法论,旨在「用更短的时间讲明白一个
知识点」