黑马程序员

马上添加播妞学姐
领取资料&在线答疑
长按二维码识别,或保存截图

降低入行AI门槛

小白也能快速高薪入行AI

更多应用场景

课程设计直接对标岗位

轻学习、快就业

我适合学吗?

课程大纲及学习安排

打造就业快、薪资高的AI人才

阶段一 大模型开发入门
从零开启AI之旅 6天

大模型开发入门:动⼿搭建聊天机器⼈,快速⼊⻔⼤模型开发

知识点细分:本地部署大模型(Ollama);可视化聊天机器人(ChatBox);Python核心语法;Python调用大模型API;搭建聊天机器人

阶段二 大模型智能体平台开发
企业级大模型智能体解决方案,更好让大模型为业务赋能 13天
提示词工程

⾦融⾏业动态⻛向评估项目:基于Zero-shot零样本学习能力,通过DeepSeek/QWen/ChatGLM模型对金融领域数据进行分类、信息抽取、文本匹配,更好的解决业务问题

知识点细分:
1. 什么是Prompt Engineering
2. Prompt Engineering的原理以及实际应用的优化技巧
3. 如何利用Prompt Engineering完成实际金融业务

核心技术: ⼤模型基础知识(主流⼤模型、⼤模型分类)、提示词介绍及撰写介绍、提示词优化⽅法

智能体开发(Coze)

Coze搭建智能体案例:基于Coze搭建智能体,快速从0到1搭建工作流和应用程序

知识点细分:案例讲2练3;1. 案例:智能问答助手;2. 案例:旅游规划小精灵;3. 案例:智能助教;4. 案例:智能面试官;5. 案例:口语练习专家

基于Coze的技术面试助手案例 :基于Coze工作流,为黑马程序员AI学科学生临近毕业时面试相关的问题进行提效。结合LLM、ASR、TTS、RAG等技术,为面试中常见的效率痛点赋能,代替部分人工,缓解教师压力

知识点细分:
实现如下功能:
1. 简历修改:基于OCR插件、prompt、数据库查询,实现简历中各类常见问题的召回和修改建议。 以及进阶功能:违禁词过滤、业务背景重复率统计等。辅助学生编写更好的简历
2. 面试录音分析:基于多模态大模型实现ASR,基于prompt实现面试官、应试者角色划分,最终实现文字提取、摘要以及建议,提面试高录音分析的效率
3. 面试题生成:基于黑马面试宝典使用RAG技术结合学生的简历,结合简历上的技能点、业务背景、毕业时间、专业等信息,生成个性化的面试题题库
4. 模拟面试:基于简历和面试题生成流水线等功能,基于邢老师音色克隆面试官音色,结合ASR模型、TTS模型等技术,实现实时语音面试

核心技术: 智能体介绍、 Coze智能体开发、Coze本地化部署

智能体开发(Dify)

基于Dify实现Agent开发应用项目:项目基于Ollama私有化部署DeepSeek R1:8b模型;基于Docker结合Dify大模型应用开发平台构建可视化聊天界面

知识点细分:
1. 大模型私有化部署:Ollama、DeepSeek/QWen
2. 聊天机器人搭建:基于Dify搭建可视化聊天机器人
3. RAG构建:基于Dify搭建本地知识库
4. Agent智能体构建:基于Dify搭建Agent智能体

核心技术: Docker安装与部署、Dify安装与使用、基于Dify搭建本地知识库

阶段三 大模型语言进阶
掌握大模型必备Python语言,奠定大模型开发基础 12天

AI掘金头条项目:AI掘金头条是一款基于个性化推荐的科技资讯阅读产品,包含用户端(提供移动Web、支持阅读、关注、评论及智能客服功能)、自媒体端(供自媒体作者编辑发布文章并查看运营数据)以及MIS管理后台(用于用户管理、文章审核及评论管理)等

知识点细分:
1. 项目搭建:项目初始化、配置数据库与配置模块化
2. 用户模块:获取用户信息,修改头像
3. 头条模块:获取用户频道,获取所有频道,修改用户频道
4. 文章模块:获取文章详情,用户关注列表,发布评分与评论列表及回复评论

核心技术: Python⾯向对象编程、 Python⾼阶语法、 Python ⽹络编程基础

阶段四 大模型RAG开发
企业级大模型RAG应用核心解决方案,更好解决模型幻觉问题 7天

基于人力资源场景的RAG的简历推荐系统:构建一个端到端、可水平扩展的检索增强生成(RAG)系统,支持对异构简历(PDF/DOCX/JPG/PNG)进行自动解析、结构化、语义索引与多轮对话式推荐。系统以向量数据库为核心存储,以 LLM 为推理中枢,以 Agent 框架为调度单元,面向企业 HR 及猎头平台提供秒级、可追溯、可解释的候选人推荐服务

知识点细分:
1. 文档智能
2. 向量化与索引
3. 检索增强生成
4. 智能代理
5. 配置与 DevOps

核心技术: LangChain框架、Milvus、ElasticSearch向量数据库框架

阶段五 大模型智能体高级开发
企业级定制化智能体开发,解决实际业务问题 16天
Agent智能体高级开发

Pytorch框架: 1. Pytorch安装;2. Pytorch构建神经网络;3. Pytorch案例实战

深度学习基础: 1. 机器学习基础(术语、建模流程、核心框架、评估指标、分类回归聚类基础及案例);2. 深度学习基础(神经网络基础、Pytorch框架加强);3. 词向量(Word Embedding)

智能体框架: 1. Function Call的原理;2. MCP和Function Call的区别;3. SSE、AGUI、MCP、A2A协议;4. 基于LangGraph智能体开发;5. 大模型评估

ReAct智能体项目

基于ReAct和RAG的扫智通Agent项目:扫智通Agent项目是一个面向消费者(toC)的智能客服系统,旨在为用户提供全周期的扫地机器人相关服务并根据用户使用习惯生成使用报告,为用户提供使用优化建议。该系统基于RAG技术及ReAct框架构建,能够同时处理用户购买前后的咨询问题以及已购买用户的使用报告生成与优化建议需求。通过一个统一的Agent界面,为用户提供高效、准确且个性化的支持,提升用户体验与满意度

知识点细分:
1.数据来源:扫地机器人的产品手册及相关知识库(基础与技术类、产品功能类、智能交互类、维护与保养类、选购指南类、使用技巧类、配件与耗材类、安全与隐私类、特殊场景类等问题)
2.基于ReAct框架实现的Agent,包括推理(Reasoning)模块以及行动(Acting)模块
3.使用RAG工具实现本地知识库构建。(文档读取模块、向量数据库模块、RAG工具调用模块)
4.使用大模型Deepseek v3结合Prompt Engineering实现用户使用报告的生成
5.构建三位一体评估体系,针对检索内容(Precision、Recall、mrr)、生成内容(ROUGE-1、ROUGE-L、BERTScore、Faithfulness)、总性能(平均延时、QPS)
6.构建日志打印模块,重点监控工具的运行情况。(控制台日志+生产环境日志)
7.基于Flask的模型部署(服务端+客户端)、基于Streamlit的前端服务

核心技术: Pytorch基础、机器学习基础、神经⽹络基础、ReAct框架

多智能体项目

基于A2A的SmartVoyage旅行智能助手:SmartVoyage 是一个智能旅行助手系统,使用 A2A (Agent-to-Agent) 协议构建多代理协作框架,支持用户查询天气和票务信息。系统包括 LLM 路由服务器(意图识别)、天气代理服务器(查询天气数据库)、票务代理服务器(查询票务数据库)、MCP 工具服务器(数据库接口)、数据采集脚本和 Streamlit 前端客户端。用户输入查询(如“北京天气”或“北京到上海火车票”),系统通过 LLM 路由到合适代理,代理生成 SQL 查询 MCP 数据库,返回结果显示在界面

知识点细分:
1. LLM 路由服务器(意图识别)
2. 天气代理服务器(查询天气数据库)
3. 票务代理服务器(查询票务数据库)
4. MCP 工具服务器(数据库接口)
5. 数据采集脚本
6. Streamlit 前端客户端

核心技术: Python-a2a、LangChain、Streamlit、MySQL Connector、 Uvicorn

阶段六 大模型综合应用
综合运用RAG和Agent智能体相关技术,实现大模型各类应用 15天
基于中医药知识图谱项目

基于中医药知识图谱项目(3选1): “草本通” 项目致力于解决中医药知识难以理解、碎片化严重、检索效率低 等问题,打造一个可理解、可对话、可传播、可拓展 的智能知识服务平台。系统融合多种AI技术,支持从数据采集到语义问答、图谱构建、再到内容生成与平台发布的完整AI闭环

知识点细分:
1. 利用爬虫自动采集中药、方剂、功效、症状、疾病等原始文本
2. 使用大语言模型(DeepSeek)+ LangChain 进行实体与关系抽取
3. 构建 Neo4j 图数据库与 Faiss 向量检索双引擎,实现结构化查询与语义匹配
4. 基于 LangGraph 搭建多智能体协同系统,管理复杂问答流程
5. 提供基于 Streamlit 的网页端交互式问答界面
6. 自动生成小红书风格图文内容,并实现一键发布,实现从“知识获取”到“内容传播”的闭环

核心技术: Neo4j、LangGraph、Streamlit

基于职业教育领域RAG智慧问答系统

基于职业教育领域RAG智慧问答系统(3选1):基于IT职业教育行业答疑大模型抽取RAG解决方案,通过项目学习完成企业及RAG系统完整流程搭建与测试及优化。从智能查询路由设计、数据处理与多源集成、模型微调到后端服务与前端开发完成全栈RAG系统构建

知识点细分:
1.智能问答系统架构:FAQ 系统与 RAG 系统的区别与应用场景
2.数据库技术:MySQL 表查询;Redis 键值存储与缓存机制;Milvus 向量数据库的架构与索引类型
3.检索算法:BM25 算法原理;密集向量 & 稀疏向量混合检索;重排序的作用
4.query的意图识别+改写:BERT 分类器的训练与推理;LLM的调用与提示设计;查询分类与动态检索策略的实现逻辑
5.企业级开发实践:模块化代码设计与代码复用;配置文件(config.ini)与环境变量管理;日志系统设计与错误处理

核心技术: MySQL、LangChain、Redis、Milvus

基于多场景的智能工单Agent

基于多场景的智能工单Agent(3选1):大型ToC企业中的客服团队往往是人力外包,对公司业务细节的了解程度不够,需要和产研团队多次沟通才能完成一次工单的处理,效率低下。 同时,随着AI的发展,工单的处理也可以基于大模型+RAG+funcation call能力进行提效,部分工单自动处理,从而节省部分客服人力资源。 本系统结合大模型能力,融合多种AI技术(RAG+多Agent+MCP)等,完成工单的判定、处理、建议等全流程流转闭环

知识点细分:
1. 项目冷启动阶段,基于大模型 + NLP算法,完成工单数据的清洗和工单、业务知识库的搭建(ElasticSearch),工单会进行脱敏
2. 消费工单的Kafka消息队列数据,并基于规则过滤出来需要处理的工单
3. 实现query改写,提高检索内容的准确性,对ES进行检索时采用上下文+向量混合检索的方式,结合重排序模型实现查询内容的准确性
4. 实现意图识别和槽位填充,基于用户的query基于MCP协议执行funcation call,在上下文中补充用户的实时数据作为上下文信息
5. 实现知识库实时迭代, 实现知识库数据实时更新,保证内容是最新的
6. Docker镜像的构建和生产环境docker-compose模式部署

核心技术: Git、LangGraph、ElasticSearch、Kafka、Docker

面试加强

模型部署:Flask/FastAPI/Gradio;Docker安装与部署;接口文档;模型部署实战

面试加强:
Agent常见架构剖析
DeepSeek大模型架构剖析
大模型Agent开发常见面试题
大模型RAG开发常见面试题
常用数据结构常见面试题

阶段七 大模型核心原理剖析
掌握大模型核心原理,奠定大模型开发基础 4天

大模型主流模型运行机制:
1. Transformer架构
2. 大模型Transformer架构的注意力机制
3. 大模型Transformer架构(encoder、decoder、encoder+decoder)
4. 大模型Transformer文本翻译实战

大模型迁移学习:
1. 迁移学习的预训练模型和微调阶段
2. NLP中的常用预训练模型(BERT、GPT-1、GPT-2)
3. Hugging Face预训练模型仓库
4. Huggingface Transformers库使用(提供了NLP领域预训练语言模型结构模型和调用框架)
5. Bert文本分类案例

阶段八 大模型微调
熟悉大模型微调与行业实战,打造高效智能系统 13天
大模型核心架构

大模型核心架构:
1.主流大模型原理及架构(GPT系列、GLM、QWen、DeeepSeek)
2.大模型微调策略(PET、P-Tuning、LoRA)

微调项目1

【LoRA微调】微博文本信息抽取项目 :基于Qwen/DeepSeek+LoRA微调实现微博文本信息抽取+文本分类的多任务,通过一个大模型同时解决多种任务开发和应用,项目基于LLM进行混合任务开发应用的实现, 利用Qwen/DeepSeek大模型进行P-Tuning微调的方式,基于Flask框架实现API接口开发和应用

知识点细分:
1. 理解信息抽取任务以及文本分类的业务意义及应用场景
2. 数据预处理:修改数据格式适配大模型训练、数据张量的转换等
3.Qwen/DeepSeek模型解析,LoRA方法讲解、P-Tuning方法解析
4. 基于Qwen/DeepSeek+LoRA方法实现模型的训练和评估
5. 基于Qwen/DeepSeek+P-Tuning方法实现模型的训练和评估
6. 基于Flask框架开发API接口,实现模型线上应用

核心技术: PET、P-Tuning、LoRA、Flask

微调项目2

【QLoRA微调】QWen微调文本摘要项目:项目以QWen模型为核心,借助DeepSpeed框架实现训练过程的加速优化。同时采用了GPTQ和QLoRA技术对模型进行量化处理,旨在进一步提升模型的推理速度。最终,通过Vllm平台完成了模型的部署,实现了对文本中关键信息的自动化抽取,完成信息抽取的任务

知识点细分:
1. 数据集处理、模型构建、模型训练、模型预测
2. 大模型并行计算:deepspeed,数据并行、流水线并行、模型并行
3. 大模型量化:训练量化方法QLora,训练后量化方法GPTQ
4. 模型部署和推理优化框架:vLLM和oLLAMA

核心技术: Git、LangGraph、ElasticSearch、Kafka、Docker

查看详细课纲

匹配企业急需的技术栈

直通大模型应用开发工程师

紧缺

RAG开发

企业需求热度

企业级大模型RAG应用核心解决方案,更好解决模型幻觉问题

LangChain框架 【项目】基于物流垂直领域的RAG
智能问答
【项目】基于人力资源场景的RAG
的简历推荐系统
胜任岗位 10-13k
RAG开发⼯程师
暴涨

Agent智能体

企业需求热度

掌握企业级大模型智能体解决方案,更好让大模型为业务赋能

Coze智能体开发 Coze本地化部署 【案例】Coze搭建智能体 【项目】基于Coze的技术面试助手
胜任岗位 10-15k
Agent开发工程师、Coze开发工程师、
Dify开发工程师

模型微调

企业需求热度

掌握机器学习与深度学习核心算法,能够解决基础人工智能问题

大模型微调基础、Llama Factory微调框架 LoRA微调【项目】微博文本信息抽取
项目
QLoRA微调【项目】QWen微调文本
摘要项目
胜任岗位 18-20k
微调开发工程师、大模型推理优化工程师
政策刚需

国产化部署

企业需求热度

课程充分融入DeepSeek,无缝对接企业大模型开发

DeepSeek QWen ChatGLM私有化(Ollama)
+Coze/Dify低代码平台
胜任岗位 18-20k
微调开发工程师、大模型推理优化工程师
更多热门技术栈

实战项目+解决方案双驱动

只教企业需要的实战技能

获取解决方案库

还原企业真实业务场景

学完立即上手

  • AI客服
  • AI新闻
  • AI医疗
  • AI资讯
  • AI物流
  • AIGC
  • AI教育

DeepSeek私有化部署与聊天机器人搭建

项目基于Ollama私有化部署DeepSeek R1:8b模型,基于Docker结合Dify大模型应用开发平台构建可视化聊天界面,并搭建人工智能技术答疑场景的RAG系统,通过集成DeepSeek构建专属AI助手,解决模型幻觉问题。并且通过DeepSeek构建企业应用智能体。项目实现了AI大模型从私有化部署、聊天机器人搭建、RAG系统到Agent智能体构建。

可掌握的核心能力

1.掌握大模型部署方案
2.掌握Dify大模型应用开发平台使用
3.掌握基于Dify构建RAG系统 4.掌握基于CrewAI的Agent智能体构建

技术亮点

大模型私有化部署方案
Dify搭建聊天机器人
搭建本地知识库解决方案
大模型智能体解决方案

技术架构图

DeepSeek私有化部署与聊天机器人搭建

蜂窝头条投满分项目

蜂窝头条投满分项目是结合今日头条真实场景下的海量数据, 快速搭建随机森林和FastText的基线模型, 以验证商业化落地的可行性. 更多聚焦在深度学习的优化方法上, 搭建基于BERT的初版微调模型, 应用量化,剪枝,预训练模型微调,知识蒸馏等多种手段,反复迭代,反复优化模型的离线效果,在线效果。

可掌握的核心能力

1. 基于大规模业务留存数据构建快速文本分类系统
2. 基于推荐系统内部分频道投递的需求, 快速搭建短文本精准分类投递的模型
3. 基于随机森林和FastText搭建快速基线模型, 验证业务通道的能力
4. 基于BERT的迁移学习优化模型搭建的能力
5. 实现神经网络量化的优化与测试
6. 实现神经网络剪枝的优化与测试
7. 实现神经网络知识蒸馏的优化与测试
8. 更多主流预训练模型的优化与深度模型剖析
9. BERT模型在生成式任务和工程优化上的深入扩展

技术亮点

海量文本快速分类基线模型解决方案
基于预训练模型优化的解决方案
模型量化优化的解决方案
模型剪枝优化的解决方案
模型知识蒸馏优化的解决方案
主流迁移学习模型微调优化的解决方案

技术架构图

蜂窝头条投满分项目

医疗知识图谱项目

医疗知识图谱项目是一款基于知识图谱的多功能问答机器人项目, 主要解决当前NLP领域中大规模知识图谱构建的问题和图谱落地的问题.知识图谱的构建主要分为知识构建和知识存储两大子系统.知识构建部分将重点完成命名实体识别和关系抽取的模型搭建与优化,深入解析并实现Casrel模型实现文本自动关系抽取的实现.并深入解析实体对齐和实体消歧的NLP难题解决方案, 深度结合工业界流行的解决方案. 最终呈现一个基于知识图谱的问答机器人。

可掌握的核心能力

1.图谱全流程管理 —— 掌握从数据获取到图谱构建的全生命周期
2.图谱理论与应用 —— 熟悉知识图谱定义、类型及多领域应用
3.Neo4j 技术 —— 精通图数据库的存储与查询优化
4.深度学习 NER —— 掌握 CRF、BERT、BiLSTM+CRF 等实体识别方法
5.多样化关系抽取 —— 熟练运用规则、Pipeline 与 Casrel 模型提取关系
6.知识融合与消歧 —— 掌握实体消歧和关系对齐技术
7.医疗问答开发 —— 实现意图识别与对话管理的智能问答系统
8.NLP 语义处理 —— 精通自然语言理解(NLU)与生成(NLG)
9.模型工程化 —— 掌握数据预处理与模型训练全流程
10.垂直领域图谱 —— 构建医疗、商业等领域的定制知识图谱

技术亮点

智能搜索优化 —— 利用语义理解与实体关联提升搜索准确性(图谱智能搜索)
医疗诊断与研发 —— 构建医疗知识图谱,支持疾病诊断及药物研发
高效知识存储与查询 —— 基于 Neo4j 存储与查询 SPO 三元组数据
智能问答系统 —— 结合 NLU 与知识图谱实现精准问答
异构数据整合 —— 通过实体抽取融合多源数据构建一致知识图谱

技术架构图

医疗知识图谱项目

微博文本信息抽取项目

基于ChatGLM/QWen+LoRA微调实现微博文本信 息抽取+文本分类的多任务,通过一个大模型 同时解决多种任务开发和应用,项目基于LLM 进行混合任务开发应用的实现,利用 ChatGLM/QWen大模型进行P-Tuning微调的方 式,基于Flask框架实现API接口开发和应用。

可掌握的核心能力

1.了解和掌握大语言模型的基本原理和架构,特别是ChatGLM/QWen模型的结构和工作机制
2.掌握大模型LoRA微调技术,通过微调预训练的大模型来适应特定任务的需求
3.掌握大模型P-Tuning微调技术,对大模型进行高效的参数调整,增强其在特定任务上的表现。
4.理解和应用多任务学习的概念,通过一个模型同时解决文本信息抽取和文本分类两种任务,提高模型的综合能力和应用效率
5.掌握文本信息抽取技术,从非结构化的文本数据中提取有价值的信息,如实体、关系、事件等
6.学习文本分类的基本原理和方法,掌握如何将文本数据按照预定义的类别进行归类
7.通过Flask框架,学习如何开发和部署API接口,使模型能够通过网络服务被访问和使用

技术亮点

联合任务数据预处理适配模型训练的解决方案
实现ChatGLM/QWen+LoRA训练的解决方案
实现ChatGLM/QWen+P-Tuning训练的解决方案
基于Flask框架实现模型API接口开发的解决方案

技术架构图

微博文本信息抽取项目

物流信息咨询智能问答项目

项目基于LangChain+ChatGLM/QWen实现电商物流 本地知识库问答机器人搭建,让模型根据本地信 息进行准确回答,解决大模型的“幻觉”问题, 实现精准问答。通过项目皆在掌握LangChain工 具的基本使用方式,理解向量知识库以及实现知 识库的技术原理,快速构建检索增强生成 (RAG)系统

可掌握的核心能力

1.掌握LangChain工具的基本使用方法,了解如何通过LangChain构建和管理语言模型应用
2.熟悉ChatGLM/QWen模型的应用,了解如何将大语言模型与本地知识库结合,实现高效准确的问答功能
3.理解向量知识库的基本概念和技术原理,掌握如何构建和使用向量知识库来存储和检索知识信息
4.掌握知识库的构建方法,从数据采集、处理到存储,学习如何将电商物流相关信息整合到知识库中
5.理解RAG系统的基本原理和实现方法,学习如何结合检索和生成技术,提升问答系统的准确性和实用性
6.从零开始搭建一个问答机器人,掌握整个系统的设计、实现和部署过程

技术亮点

LangChain工具使用介绍解决方案
ChatGLM/QWen模型集成到问答系统中的解决方案
向量知识库的构建和检索的解决方案
搭建RAG系统的解决方案

技术架构图

物流信息咨询智能问答项目

基于StableDiffusion的图像生成项目

基于Stable Diffusion的图像生成项目是一种基于深度学习的图像生成方法,旨在生成高质量、逼真的图像。该项目利用稳定扩散过程,通过逐渐模糊和清晰化图像来实现图像生成的过程。这种方法在图像生成领域具有广泛的应用,包括艺术创作、虚拟场景生成、数据增强等。

可掌握的核心能力

1.知道AIGC是什么,理解AIGC的产品形态
2.知道图像生成的常用方式
3.理解GAN ,VAE,Diffusion的思想
4.掌握StableDiffusion的网络结构
5.理解文图匹配的clip模型
6.理解Unet网络和采样算法的作用
7.知道VAE解码器的作用
8.知道drembooth和lora的模型训练方式
9.能够搭建图像生成的小程序

技术亮点

图像生成的常见解决方案
文图匹配的解决方案
扩散模型噪声去除的解决方案
潜在空间扩散模型的解决方案
扩散模型训练的解决方案
小程序搭建的解决方案

技术架构图

基于StableDiffusion的图像生成项目

EduRAG智慧问答系统

EduRAG 是一个企业级智能问答系统,专为教育场景设计,整合了基于 MySQL 的快速 FAQ 检索和基于 RAG(Retrieval-Augmented Generation)的复杂问题处理能力。系统通过结合 MySQL 数据库的高效查询和 Milvus 向量数据库的语义检索,实现了从常见问题到专业咨询的全方位问答支持。系统支持多来源过滤(如 AI、Java、测试、运维、大数据),并通过 Redis 缓存优化性能,使用 LLM 提供高质量答案生成。

可掌握的核心能力

1.了解LangChain基本概念、明确LangChain主要组件的作用、了解LangChain常见的使用场景
2.掌握基于LangChain+ChatGLM-6B模型实现本地知识库的问答实现原理+过程
3.RAG 系统开发与优化:掌握从数据分片到答案生成的 RAG 全流程,熟练应用 HyDE、子查询等检索增强策略提升系统性能
4.大模型应用实践:能够集成 LLM(如 OllamaLLM)并设计高效 Prompt,解决知识问答中的业务定制化需求
5.智能查询路由设计:实现规则、相似度和 LLM 三层路由,精准分发查询并优化复杂意图识别效率
6.后端服务与前端开发:使用 FastAPI 开发高并发 API 并通过 Gradio 构建交互界面,满足企业级服务与用户体验要求
7.数据处理与多源集成:熟练处理结构化与非结构化数据,结合 MySQL 和向量搜索打造高效知识检索系统
8.企业级问题解决能力:通过日志调试和高并发设计,具备定制化开发与性能优化的实战技能,适配智能客服等场景

技术亮点

数据库查询优化:BM25 + Redis 缓存
语义检索:Milvus 混合向量检索
查询分类:BERT 分类器
动态检索策略:LLM 驱动的策略选择(直接检索、HyDE、子查询、回溯)
答案生成:LLM + RAG 提示模板
性能优化:Redis 缓存 + 模块化设计
日志与监控:统一日志系统(logging)
配置管理:ConfigParser + config.ini

技术架构图

EduRAG智慧问答系统
更多实战项目

AI领域资深讲师

提高你的就业竞争力

李老师

工学,硕士算法专家

  • 北京化工大学工学硕士,多家互联网公司首席信息官,算法专家,具备多年机器学习,深度学习等人工智能相关算法的研发经验。熟悉Python、Java等常用开发语言,对PyTorch,Tensorflow, PaddlePaddle等深度学习框架熟练使用,在自然语言处理应用方面具备多年的企业实践经验。

赵老师

硕士,人工智能领域

  • 硕士,擅长人工智能领域技术,多年模式识别和数据挖掘开发经验,主导研发多项国家和省级科研项目,负责企业级信贷风控模型和智能医疗数据平台开发,专注ML/DL/PR/KG领域相关算法的应用,曾任职美团搜索部负责NER及Bert搜索排序优化对Hadoop、SparkTensorflow和PyTorch等大数据、人工智能技术有多年企业实践经验。

姚老师

硕士,工程落地经验

  • 毕业于哈尔滨工程大学,擅长GIS行业工程实战,在图像分割、检测、追踪等方面有多年从业经历,参与多项国家级/部委级重大项目,具备丰富的工程落地经验。

息老师

大模型方向专家

  • 毕业于北京航空航天大学,聚焦自然语言处理算法和大模型方向,曾在多家知名互联网企业担任高级算法工程师和算法团队负责人,参与或主导多个核心算法项目的工业化落地,深谙工业界对算法工程师的核心诉求。在大模型引发AI范式变革之际,致力于以工业标准重塑教学,将多年算法能力和工程经验惠及更多的学员,希望大家都能学到真本领,进入自己心仪的企业。

李老师

高级算法专家

  • 硕士,曾就职于多家上市公司,并担任高级算法工程师、算法专家。研究领域包括NLP、目标检测、视频跟踪、大语言模型、多模态、模型推理加速等。

李老师

资深算法工程师

  • 985高校计算机专业,资深算法工程师,在央企以及互联网公司从事多年算法开发及管理工作,在数据挖掘、自然语言处理、对话机器人领域有着深刻理解。擅长课程:数据挖掘、数据分析与可视化、自然语言处理、信息抽取、对话机器人、大模型。

邢老师

大厂经验 ,专注大模型领域

  • 多年互联网一线大厂经验,在字节跳动、滴滴出行等一线互联网公司核心业务部门深耕技术多年,专注大数据和人工智能领域,具备扎实的技术能力和前沿的技术视野,技术栈丰富,擅长大数据开发、数据挖掘、深度学习、NLP、大模型等技术,擅长对技术活学活用和解决复杂问题,具备丰富的大型项目实战经验。

查看讲师项目实战

学长学姐的极速就业故事

姓名

学历

培训后薪资

城市

入职岗位/就业方向

李同学Agent开发工程师

月薪16600元 / 大专学历

22岁大专,机械制造与自动化转行AI大模型,培训前4000,培训后16600

孙同学大模型算法开发

月薪21000元 / 跨行业就业

29岁,专升本,建筑工程师转行AI大模型开发,培训前8000,培训后21000

赵同学大模型数据开发

月薪12000元 / 大专学历

23岁,大专,网络系统管理专业,北京就业,培训后薪资12000

孔同学智能应用部算法工程师

月薪28000元 / 薪资上涨15500元

29岁本科,规划设计师转AI大模型,培训前12500,培训后28000

翟同学AI应用开发工程师

月薪16000元 / 南京就业

29岁本科,电子商务专业,南京就业,培训前14000(北京)培训后16000

梁同学AI大模型应用工程师

月薪16000元 / 运营转行

23岁,本科,数据运营转行AI大模型,培训前7000,培训后16000

查看更多就业案例

常见问题

这门课程学完能达到什么水平?能从事什么岗位?

本课程旨在培养具备企业级大型模型应用开发能力的工程师(目标岗位:大型模型应用工程师。从事的岗位:将具备应聘大型模型应用、AI智能体开发工程师、RAG开发工程师等相关岗位的核心技能。

这个课程适合零基础的学生吗?需要什么前置知识?

课程适学人群为:零基础学生。它包含 6天的“大模型开发入门”基础班 ,会教Python核心语法、基础API调用和本地模型部署。

课程时长总共多久?每天的学习强度如何?是线上还是线下?

课程为线下全日制脱产班。课程时长约70天学习日,不含休息日。总服务天数约106天。

课程中主要学习哪些大模型?会教模型底层原理吗?

课程主要聚焦于主流大模型的应用开发,重点实践平台包括:DeepSeek-R1, QWen, ChatGLM ;教学重点在于如何使用这些模型的API和本地部署(Ollama),以及在其基础上开发应用(Agent, RAG);课程侧重于 应用层的开发技能和工程实践 (如Prompt工程、Agent框架、RAG构建、部署、项目流程)。

做项目是单人还是团队?是否有老师指导?

项目采用小组协作(如3-5人)的方式进行 ,模拟真实工作环境。课程配备讲师和助教全程进行技术辅导、答疑和项目评审。

学完这个课程好找工作吗?

大模型应用开发(特别是Agent、RAG方向)是AI领域最热门的就业方向之一 ,人才需求缺口大。合格的初级工程师起薪通常具有竞争力(远高于普通开发岗位),有经验或能力突出者薪酬潜力更大。

课程大纲

  1. 基础班

    1. 大模型开发入门

  2. 高手班

    1. 大模型语言进阶 2. 数据处理与统计分析 3. 机器学习基础 4. 数据挖掘项目实战 5. 深度学习基础 6. NLP自然语言处理基础 7. 自然语言处理项目1 8. 大模型RAG开发项目 9. 大模型Agent开发项目 10. 大模型微调开发项目 11. 大模型核心专题 12. 自然语言处理项目2 13. 自然语言处理实战 14. 面试加强课 15. 图像分析基础 16. 多模态大模型项目

  3. AI大模型开发V6.5版本

  • 大模型开发入门基础班 1

    课时:8天 技术点:60项 测验:1次 学习方式:线下面授

    学习目标

    1.基于Ollama的私有化大模型入门| 2.基于Ollama+LobeChat可视化聊天机器人| 3.Python调用本地大模型API| 4.基于Python调用基于Ollama部署本地大模型API实现聊天机器人

    主讲内容

    1. 聊天机器人的项目介绍与搭建零基础入门AI大模型开发的开始,包含了以下技术点:

    01-项目介绍:AI大模型搭建聊天机器人需求分析、AI大模型搭建聊天机器人步骤和流程| 02-环境搭建:AI大模型搭建聊天机器人必备语言和工具、项目环境搭建

    2. 基于ollama+ChatBox实现chatBot掌握私有化大模型部署,包含了以下技术点:

    01-Linux基础:Linux核心命令| 02-虚拟机VMware基础:虚拟机配置、网络、VMware| 03-Ollama安装、命令、基于Ollama本地部署|DeepSeek和QWen大模型等

    3. 大模型编程语言基础_Python编程掌握大模型必备的Python语言,包含了以下技术点:

    01-Python基础语法:变量、标识符和关键字、输入和输出、数据类型转换、PEP8编码规范、比较/关系运算符、if判断语句语法格式、三目运算符、while语句语法格式、while 循环嵌套、break 和 continue、while 循环案例、for循环| 02-Python数据处理:字符串定义语法格式、字符串遍历、下标和切片、字符串常见操作、列表语法格式、列表的遍历、列表常见操作、列表嵌套、列表推导式、元组语法格式、元组操作、字典语法格式、字典常见操作、字典的遍历| 03-函数:函数概念和作用、函数定义、调用、函数的参数、函数的返回值、函数的注释、函数的嵌套调用、可变和不可变类型、局部变量、全局变量、组包和拆包、引用| 04-文件读写:文件的打开与关闭、文件的读写|、文件目录操作及案例、os模块文件与目录相关操作| 05-异常处理:异常概念、异常捕获、异常的传递| 06-模块和包:模块介绍、模块的导入、包的概念、包的导入、模块中的__all__ 、模块中__name__

    4. Python调用Ollama部署QWen/DeepSeek大模型API实现聊天机器人能够实现Python调用本地部署大模型,包含了以下技术点:

    01-streamlit框架的安装、基于streamlit完成聊天机器人界面设计| 02-基于Python调用本地私有大模型API实现聊天机器人

  • 大模型语言进阶高手班 1

    课时:7天 技术点:8项 测验:1次 学习方式:线下面授

    学习目标

    1.初步建立面向对象的编程思维| 2.掌握类和对象的基本使用方式| 3.掌握网络编程技术,能够实现网络通讯| 4.知道通讯协议原理| 5.掌握开发中的多任务编程实现方式| 6.知道多进程多线程的原理|

    主讲内容

    1. 面向对象从逐步建立起面向对象编程思想,再到会使用对象,到创建对象,再到真正理解为什么封装对象,包含了以下技术点:

    01_面向对象介绍| 02_类的定义和对象的创建| 03_添加和获取对象属性| 04_self 参数| 05_init方法| 06_继承| 07_子类方法重写| 08_类属性和实例属性| 09_类方法、实例方法、静态方法|

    2. 网络编程主要学习通讯协议,以及Python实现TCP、HTTP通讯,包含了以下技术点:

    01_IP地址的介绍| 02_端口和端口号的介绍| 03_TCP的介绍| 04_Socket的介绍| 05_TCP网络应用的开发流程| 06_基于TCP通信程序开发|

    3. 多任务编程主要学习Python中多线程、多进程,包含了以下技术点:

    01_多任务介绍| 02_多进程的使用| 03_多线程的使用| 04_线程同步|

    4. 高级语法主要学习Python的高级语法,包含以下技术点:

    01_闭包| 02_装饰器| 03_正则

    5. Python数据结构主要学习主要查找算法、排序算法、关键数据结构

    01_时间复杂度| 02_线性表| 03_链表| 04_常用数据结构 05_二分查找| 06_冒泡、选择、插入、快排

  • 数据处理与统计分析高手班 2

    课时:7天 技术点:105项 测验:1次 学习方式:线下面授

    学习目标

    1.掌握 Linux 常用命令,为数据开发后续学习打下的良好基础| 2.掌握 MySQL 数据库的使用| 3.掌握 SQL 语法| 4.掌握使用 Python 操作数据库| 5.掌握 Pandas 案例| 6.知道常见绘图库使用| 7.掌握 Pandas 数据 ETL| 8.掌握 Pandas 数据分析项目流程|

    主讲内容

    1. Linux掌握Linux操作系统常用命令和权限管理,包含以下技术点:

    01_Linux命令使用| 02_Linux命令选项的使用| 03_远程登录| 04_Linux权限管理| 05_vi编辑器使用

    2. MySQL与SQL零基础小白通过MySQL数据库,掌握核心必备SQL,包含以下技术点:

    01_数据库概念和作用| 02_MySQL数据类型| 03_数据完整性和约束| 04_数据库、表基本操作命令| 05_表数据操作命令| 06_where子句| 07_分组聚合| 08_连接查询| 09_外键的使用| 10_PyMySQL

    3. Numpy矩阵运算库Numpy矩阵运算库技术,包含以下技术点:

    01_Numpy运算优势,数组的属性,数组的形状| 02_Numpy实现数组基本操| 03_Numpy实现数组运算,矩阵乘法

    4. Pandas数据清洗Pandas数据清洗技术,包含以下技术点:

    1.数据组合:01_Pandas数据组合_concat连接;02_Pandas数据组合_merge数据;03_Pandas数据组合_join| 2.缺失值处理:01_缺失值处理介绍;02_缺失值处理_缺失值数量统计;03_缺失值处理;04_缺失值处理_删除缺失值;05_缺失值处理_填充缺失值| 3.Pandas数据类型| 4.apply函数:01_Series和DataFrame的apply方法;02_apply使用案例

    5. Pandas数据整理Pandas数据处理技术,包含以下技术点:

    1.数据分组: 01_单变量分组聚合; 02_通过调用agg进行聚合; 03_分组后transform; 04_transform练习| 2.Pandas透视表: 01_透视表概述&绘员存量增量分析; 02_绘员增量等级分布; 03_增量等级占比分析&整体等级分布; 04_线上线下增量分析| 3.datetime数据类型: 01_日期时间类型介绍; 02_提取日期分组案例; 03_股票数据处理; 04_datarange函数; 05_综合案例

    6. Pandas数据可视化Pandas数据可视化技术,包含以下技术点:

    1.Matplotlib可视化| 2.Pandas可视化| 3.Seaborn可视化|

    7. Pandas数据分析项目利用所学的Python Pandas,以及可视化技术,完成数据处理项目实战

    RFM客户分群案例: 01_RFM概念介绍| 02_RFM项目_数据加载和数据处理| 03_RFM项目_RFM计算| 04_RFM项目_RFM可视化| 05_RFM项目_业务解读和小结|

  • 机器学习基础高手班 3

    课时:7天 技术点:80项 测验:1次 学习方式:线下面授

    学习目标

    1.掌握机器学习算法基本原理| 2.掌握使用机器学习模型训练的基本流程| 3.掌握 Sklearn 等常用机器学习相关开源库的使用| 4.熟练使用机器学习相关算法进行预测分析|

    主讲内容

    1. 机器学习该部分主要学习机器学习基础理论,包含以下技术点:

    01_人工智能概述| 02_机器学习开发流程和用到的数据介绍| 03_特征工程介绍和小结| 04_机器学习算法分类| 05_机器学习模型评估| 06_数据分析与机器学习

    2. K近邻算法该部分主要学习机器学习KNN算法及实战,包含以下技术点:

    01_K近邻算法基本原理| 02_K近邻算法进行分类预测| 03_sklearn实现knn| 04_训练集测试集划分| 05_分类算法的评估| 06_归一化和标准化| 07_超参数搜索| 08_K近邻算法总结

    3. 线性回归该部分主要学习机器学习线性回归算法及实战,包含以下技术点:

    01_线性回归简介| 02_线性回归API使用初步| 03_导数回顾| 04_线性回归的损失函数和优化方法| 05_梯度下降推导| 06_波士顿房价预测案例| 07_欠拟合和过拟合| 08_模型的保存和加载| 09_线性回归应用-回归分析

    4. 逻辑回归该部分主要学习机器学习逻辑回归算法及实战,包含以下技术点:

    01_逻辑回归简介| 02_逻辑回归API应用案例| 03_分类算法评价方法| 04_逻辑回归应用_分类分析

    5. 聚类算法该部分主要学习机器学习聚类算法及实战,包含以下技术点:

    01_聚类算法的概念| 02_聚类算法API的使用| 03_聚类算法实现原理| 04_聚类算法的评估| 05_聚类算法案例

    6. 决策树该部分主要学习机器学习决策树算法及实战,包含以下技术点:

    01_决策树算法简介| 02_决策树分类原理| 03_特征工程-特征提取| 04_决策树算法api| 05_决策树案例

    7. 集成学习该部分主要学习机器学习集成算法算法及实战,包含以下技术点:

    01_集成学习算法简介| 02_Bagging和随机森林| 03_随机森林案例| 04_Boosting介绍| 05_GBDT介绍| 06_XGBOOST

    8. 数据挖掘案例数据挖掘案例部分,包含以下技术点:

    01_数据探索性分析| 02_特征工程| 03_模型训练与特征优化| 04_模型部署上线

  • 数据挖掘项目实战高手班 4

    课时:2天技术点:20项测验:0次学习方式:线下面授

    学习目标

    1.数据挖掘项目:时间序列预测、电力负荷预测项目背景、对电力负荷预测任务进行机器学习建模、了解项目优化方向| 2.解决方案:时间序列数据分析方案、时间序列数据特征工程解决方案、时间序列数据模型选择与模型训练方案、时间序列数据不同场景下的预测方案| 3.模型优化:从特征工程、算法选择、预测(推理)速度、扩展性角度介绍时序预测任务还可以进一步优化的方向 | 实战案例:人才流失建模实战 |数据分析解决方案、特征工程解决方案、机器学习模型调参解决方案、模型融合解决方案

    南方电网电力负荷预测项目,是实现电力供需的平衡,有效整合可再生能源,满足日益增长的电力需求,同时降低碳排放并确保电网稳定运行非常重要的一个任务。该项目根据脱敏后的时间戳,历史电力负荷数据,充分提取时间特征,滑动时间窗口内电力负荷特征,历史电力负荷特征,构建机器学习模型,对未来一个时间步的电力负荷进行预测。

    主讲解决方案

    1.时间序列数据分析方案| 2.时间序列数据特征工程解决方案| 3.时间序列数据模型选择与模型训练方案| 4.时间序列数据不同场景下的预测方案

    主讲知识点

    1.时间序列预测介绍,了解什么是时间序列预测,有哪些应用,有几种分类场景以及时间序列预测有哪些算法| 2.电力负荷预测项目背景介绍,电力负荷预测的重要性与价值分析| 3.对电力负荷预测任务进行机器学习建模,涉及数据分析,特征工程,XGBoost模型训练与调优,模型评价,模型保存,模型预测等功能实现| 4.了解项目优化方向,包括从特征工程、算法选择、预测(推理)速度、扩展性角度介绍时序预测任务还可以进一步优化的方向

  • 深度学习基础高手班 5

    课时:7天 技术点:70项 测验:1次 学习方式:线下面授

    学习目标

    1.Pytorch 工具处理神经网络涉及的关键点| 2.掌握神经网络基础知识| 3.掌握反向传播原理| 4.了解深度学习正则化与算法优化| 5.掌握卷积神经网络(CNN)| 6.掌握循环神经网络(RNN)|

    主讲内容

    1. 神经网络基础该部分主要学习神经网络基础,包含以下技术点:

    01_神经网络基础:神经网络的构成、激活函数、损失函数、优化方法及正则化|02_反向传播原理:梯度下降算法、链式法则、反向传播算法、改善反向传播算法性能的迭代法|03_深度学习正则化与算法优化:L1、L2、DroupOut、BN、SGD、RMSProp、Adagrad、Adam;04_实现多层神经网络案例|

    2. 深度学习多框架对比该部分主要学习深度学习多框架对比,包含以下技术点:

    01_Pytorch| 02_Tensorflow| 03_MxNet| 04_PaddlePaddle|

    3. Pytorch框架该部分主要学习Pytorch深度学习框架,包含以下技术点:

    01_Pytorch介绍|02_张量概念|03_张量运算|04_反向传播|05_梯度,自动梯度|06_参数更新|07_数据加载器|08_迭代数据集|

  • NLP自然语言处理基础高手班 6

    课时:10天 技术点:100项 测验:1次 学习方式:线下面授

    学习目标

    1.掌握NLP领域前沿的技术解决方案| 2.了解NLP应用场景| 3.掌握NLP相关知识的原理和实现| 4.掌握传统序列模型的基本原理和使用| 5.掌握非序列模型解决文本问题的原理和方案| 6.能够使用Pytorch搭建神经网络| 7.构建基本的语言翻译系统模型| 8.构建基本的文本生成系统模型| 9.构建基本的文本分类器模型| 10.使用FastText进行快速的文本分类

    主讲内容

    1. NLP入门该部分主要学习NLP基础,包含以下技术点:

    01_NLP简介|02_NLU简介|03_文本生成简介|04_机器翻译简介|05_智能客服介绍|06_机器人写作介绍|07_作文打分介绍

    2. 文本预处理该部分主要学习文本预处理技术,包含以下技术点:

    01_文本处理的基本方|02_文本张量表示方法|03_文本语料的数据分析,文本特征处理,数据增强方法|04_分词,词性标注,命名实体识别|05_one-hot编码,Word2vec,Word Embedding|06_标签数量分布,句子长度分布,词频统计与关键词词云

    3. RNN及变体该部分主要学习RNN、LSTM、GRU等技术,包含以下技术点:

    01_传统RNN,LSTM,Bi-LSTM,GRU,Bi-GRU|02_新闻分类案例,机器翻译案例|03_seq2seq,遗忘门,输入门,细胞状态,输出门,更新门,重置门

    4. Transfomer原理该部分主要学习Transform技术,包含以下技术点:

    01_输入部分,输出部分,编码器部分,解码器部分,线性层|02_softmax层,注意力机制,多头注意力机制|03_前馈全连接层,规范化层,子层连接结构,语言模型|04_wikiText-2数据集,模型超参数|05_模型的训练,模型验证

    5. 迁移学习该部分主要学习迁移学习,包含以下技术点:

    01_fasttext工具,进行文本分类|02_CBOW模式,skip-gram模式,预训练模型|03_微调,微调脚本,训练词向量|04_模型调优|05_n-gram特征|06_CoLA 数据集,SST-2 数据集,MRPC 数据集|07_BERT,GPT,GPT-2,08_pytorch.hub

  • 自然语言处理项目1高手班 7

    课时:7天技术点:80项测验:0次学习方式:线下面授

    学习目标

    1. 基于大规模业务留存数据构建快速文本分类系统| 2. 基于推荐系统内部分频道投递的需求,快速搭建短文本精准分类投递的模型| 3. 基于随机森林和FastText搭建快速基线模型, 验证业务通道的能力| 4. 基于BERT的迁移学习优化模型搭建的能力| 5. 实现神经网络量化的优化与测试| 6. 实现神经网络剪枝的优化与测试| 7. 实现神经网络知识蒸馏的优化与测试| 8. 更多主流预训练模型的优化与深度模型剖析| 9. BERT模型在生成式任务和工程优化上的深入扩展 |     

    蜂窝头条投满分项目是结合今日头条真实场景下的海量数据, 快速搭建随机森林和FastText的基线模型, 以验证商业化落地的可行性. 更多聚焦在深度学习的优化方法上, 搭建基于BERT的初版微调模型, 应用量化,剪枝,预训练模型微调,知识蒸馏等多种手段,反复迭代,反复优化模型的离线效果,在线效果。

    主讲解决方案

    1.海量文本快速分类基线模型解决方案| 2.基于预训练模型优化的解决方案| 3.模型量化优化的解决方案| 4.模型剪枝优化的解决方案| 5.模型知识蒸馏优化的解决方案| 6.主流迁移学习模型微调优化的解决方案

    主讲知识点

    1. 项目背景介绍, 项目快速实现基于随机森林的基线模型1.0, 和基于FastText的基线模型2.0| 2. 迁移学习优化, 实现基于BERT的迁移学习模型搭建和训练, 并对比模型关键指标的提升| 3. 模型的量化, 实现对大型预训练模型的量化, 并对比原始模型与量化模型的差异| 4. 模型的剪枝, 实现对模型的剪枝的操作, 包含主流的对特定网络模块的剪枝, 多参数模块的剪枝, 全局剪枝, 用户自定义剪枝, 包含处理细节和理论知识| 5. 迁移学习微调, 包含BERT模型微调| 6. 模型的知识蒸馏, 详细解析知识蒸馏的原理和意义, 并实现知识蒸馏模型的搭建, 对比知识蒸馏后的新模型的优异表现, 并做详细的对比测试

  • 大模型RAG开发项目高手班 8

    课时:8天学习方式:线下面授

    基于物流大模型RAG项目

    基于教育领域EduRAG项目

    项目简介技术点:80项测验:1次

    项目基于LangChain+ChatGLM-6B实现电商物流 本地知识库问答机器人搭建,让模型根据本地信 息进行准确回答,解决大模型的“幻觉”问题, 实现精准问答。通过项目皆在掌握LangChain工 具的基本使用方式,理解向量知识库以及实现知 识库的技术原理,快速构建检索增强生成 (RAG)系统

    进入项目体验

    学习目标

    1.了解LangChain基本概念、明确LangChain主要组件的作用、了解LangChain常见的使用场景 2.掌握基于LangChain+ChatGLM-6B模型实现本地知识库的问答实现原理+过程 3.RAG 系统开发与优化:掌握从数据分片到答案生成的 RAG 全流程,熟练应用 HyDE、子查询等检索增强策略提升系统性能。

    主讲解决方案

    1.LangChain工具使用介绍解决方案| 2.ChatGLM-6B模型集成到问答系统中的解决方案| 3.向量知识库的构建和检索的解决方案| 4.搭建RAG系统的解决方案

    主讲知识点

    1.项目介绍:理解什么是RAG系统| 2.项目流程梳理(从本地知识库搭建,到知识检索,模型生成答案等流程介绍)| 3.数据预处理:本地文档知识分割,向量,存储| 4.LangChain框架的详解讲解:6大组件应用原理和实现方法| 5.基于本地大模型ChatGLM-6B封装到LangChain框架中| 6.实现LangChain+ChatGLM-6B模型的知识问答系统搭建

    项目简介技术点:80项测验:1次

    EduRAG 是一个企业级智能问答系统,专为教育场景设计,整合了基于 MySQL 的快速 FAQ 检索和基于 RAG(Retrieval-Augmented Generation)的复杂问题处理能力。系统通过结合 MySQL 数据库的高效查询和 Milvus 向量数据库的语义检索,实现了从常见问题到专业咨询的全方位问答支持。系统支持多来源过滤(如 AI、Java、测试、运维、大数据),并通过 Redis 缓存优化性能,使用 LLM 提供高质量答案生成。

    学习目标

    1.大模型应用实践:能够集成 LLM(如 OllamaLLM)并设计高效 Prompt,解决知识问答中的业务定制化需求。 2.智能查询路由设计:实现规则、相似度和 LLM 三层路由,精准分发查询并优化复杂意图识别效率。 3.后端服务与前端开发:使用 FastAPI 开发高并发 API 并通过 Gradio 构建交互界面,满足企业级服务与用户体验要求。 4.数据处理与多源集成:熟练处理结构化与非结构化数据,结合 MySQL 和向量搜索打造高效知识检索系统。 5.企业级问题解决能力:通过日志调试和高并发设计,具备定制化开发与性能优化的实战技能,适配智能客服等场景。

    主讲解决方案

    1.数据获取与预处理| 2.非结构化文本实体识别(NER)| 3.非结构化文本多样化关系抽取| 4.知识融合与实体消歧| 5.Neo4j图数据库存储与查询优化| 6.医疗问答系统| 7.工程化部署

    主讲知识点

    1.智能搜索优化 —— 利用语义理解与实体关联提升搜索准确性(图谱智能搜索)| 2.医疗诊断与研发 —— 构建医疗知识图谱,支持疾病诊断及药物研发| 3.高效知识存储与查询 —— 基于 Neo4j 存储与查询 SPO 三元组数据| 4.智能问答系统 —— 结合 NLU 与知识图谱实现精准问答| 5.异构数据整合 —— 通过实体抽取融合多源数据构建一致知识图谱

  • 大模型Agent开发项目高手班 9

    课时:6天学习方式:线下面授

    基于Dify+RagFlow的Agent智能体搭建

    基于CrewAI智能体搭建

    项目简介技术点:70项测验:1次

    项目基于Ollama私有化部署DeepSeek R1:8b模型,基于Docker结合Dify大模型应用开发平台构建可视化聊天界面,并搭建人工智能技术答疑场景的RAG系统,通过集成DeepSeek构建专属AI助手,解决模型幻觉问题。项目实现了AI大模型从私有化部署、聊天机器人搭建、RAG系统到Agent智能体构建。

    学习目标

    1.掌握智能体核心原理、机制、概念及主流大模型剖析。 2.掌握Dify大模型应用开发平台使用,掌握基于Dify构建RAG系统

    主讲解决方案

    1.大模型私有化部署方案| 2.Dify搭建聊天机器人| 3.搭建本地知识库解决方案| 4.大模型智能体解决方案

    主讲知识点

    1、大模型私有化部署:Ollama、DeepSeek/QWen| 2、聊天机器人搭建:基于Dify搭建可视化聊天机器人| 3、RAG构建:基于Dify搭建本地知识库| 4、Agent智能体构建:基于Dify+RagFlow搭建Agent智能体

    项目简介技术点:70项测验:1次

    本项目深入探索大模型AI Agent的开发与应用,包括大模型Function Call函数调用的原理和实现,涵盖实时天气查询、订机票和数据库查询操作的实际案例;详细分析GPTs和Assistant API的原理及其应用方式,开发学习答疑聊天机器人和水果收银助手;并研究AI Agent的原理及其与传统软件的区别,基于CrewAI框架开发自动写信并发送邮件的AI Agent。通过这些内容,将全面掌握大模型AI Agent的开发技术及其在实际场景中的应用。

    学习目标

    1.通过创建具备查询实时天气及查询航班功能的聊天机器人,了解Function Call概念及原理,掌握Function Call开发应用 2.了解AI Agent和传统软件的区别和联系,掌握基于CrewAI框架,实现多个AI Agent协同工作,并完成自动写书信以及发送邮件的项目案例 3.了解GPTs、Coze平台、Assistant API,掌握基于Coze平台打造个人学习助手,掌握基于Assistant API开发个人助手

    主讲解决方案

    1.基于Function Call实现实时查询天气的解决方案| 2.基于Function Call实现订机票的解决方案| 3.基于Function Call实现数据库查询的解决方案| 4.基于GPTs实现学习答疑助手的解决方案| 5.基于Assistant API实现水果收银助手的解决方案| 6.基于CrewAI实现自动写信并发送邮件的AI Agent的解决方案

    主讲知识点

    1.大模型Function Call函数调用功能的原理和实现方式| 2.开发Function Call实现大模型:实时查询天气、订机票、数据库查询等功能| 4.解析GPTs和Assistant API的原理及应用方式| 5.基于GPTs store和Assistant API开发实用的聊天机器人应用| 6.拆解AI Agent的原理及对比与传统软件的区别| 7.基于CrewAI框架开发自动写信并发送邮件的AI Agent

  • 大模型微调开发项目高手班 10

    课时:2天学习方式:线下面授

    基于FFT的全量微调项目

    基于P-Tuning的提示词微调

    基于LoRA的PEFT微调

    项目简介技术点:100项测验:1次

    该项目基于GPT-2模型构建了一个医疗问诊对话系统,旨在为用户提供初步的医疗咨询服务。通过自然语言对话,系统能够了解用户的症状,提供可能的疾病建议和健康管理指导,帮助用户进行自我照顾,并在必要时建议就医。该项目不仅提升了医疗服务的便捷性,还减轻了医疗机构的负担,具有广泛的应用前景和实用价值。

    进入项目体验

    学习目标

    了解医疗问诊机器人的开发背景及企业中聊天机器人的应用场景,掌握基于GPT2模型搭建医疗问诊机器人的实现过程

    主讲解决方案

    1.GPT2模型基础原理及架构分析解决方案| 2.GPT2模型输入输出工作机制解决方案| 3.数据清洗方法解决方案| 4.GPT2模型微调评估解决方案| 5.Flask框架API开发解决方案

    主讲知识点

    1.项目介绍:理解聊天机器人的意义及实际应用场景| 2.项目实现流程介绍(数据预处理+模型训练+模型评估+上线)| 3.项目环境配置以及开发框架的选择| 4.解析GPT2模型架构及原理| 5.实现医疗数据的预处理,适配GPT2模型训练| 6.基于GPT2模型实现问答模型的微调训练| 7.基于Flask框架开发API接口,实现模型线上应用

    项目简介技术点:100项测验:1次

    项目旨在基于BERT+P-Tuning和PET两种方式,构建一个新零售行业的评价决策系统。系统通过对客户评价文本进行准确分类,基于深度分析结果生成针对不同业务场景的决策建议,帮助企业改进产品和服务质量,从而提升客户满意度。

    学习目标

    了解企业面向超大规模模型的Prompt-Tuning方法类型,理解Prefix-Tuning、Adapter-Tuning、LoRA三种大模型参数微调方法的原理

    主讲解决方案

    1.BERT模型基础原理及架构分析解决方案 2.PET以及P—Tuning微调方法原理及应用机制解决方案 3.数据格式转换、适配模型训练的解决方案 4.BERT模型微调评估解决方案 5.Flask框架API开发解决方案

    主讲知识点

    1. 项目意义:新零售行业背景和需求 2.BERT模型介绍:架构、预训练任务、应用场景 3.P-Tuning方法的原理:定义、作用、优点 4.PET方法的原理:定义、作用、优点 5.模型训练调优:数据清洗、参数选择、模型训练 6.模型性能评估:构建评估指标(Precision、Recall)评估方法(混淆矩阵)

    项目简介技术点:100项测验:1次

    基于QWen/DeepSeek+LoRA微调实现微博文本信息抽取+文本分类的多任务,通过一个大模型同时解决多种任务开发和应用,项目基于LLM进行混合任务开发应用的实现,利用QWen/DeepSeek大模型进行P-Tuning微调的方式,基于Flask框架实现API接口开发和应用。

    学习目标

    1、掌握基于BERT+PET及BERT+P-Tuning方式实现文本分类 2、通过金融行业动态方向评估项目掌握利用Few-shot、Zero-shot方式基于ChatGLM-6B实现文本分类、信息抽取、文本匹配任务

    主讲解决方案

    1.联合任务数据预处理适配模型训练的解决方案| 2.实现QWen/DeepSeek+LoRA训练的解决方案| 3.实现QWen/DeepSeek+P-Tuning训练的解决方案| 4.基于Flask框架实现模型API接口开发的解决方案|

    主讲知识点

    1.项目介绍:理解信息抽取任务以及文本分类的业务意义及应用场景| 2.项目流程介绍(完整的实现整个任务的逻辑框架)| 3.数据预处理:修改数据格式适配大模型训练、数据张量的转换等| 4.QWen/DeepSeek模型解析,LoRA方法讲解、P-Tuning方法解析| 5.基于QWen/DeepSeek+LoRA方法实现模型的训练和评估| 6.基于QWen/DeepSeek+P-Tuning方法实现模型的训练和评估| 7.基于Flask框架开发API接口,实现模型线上应用

  • 大模型核心专题高手班 11

    课时:2天学习方式:线下面授

    企业级大模型平台开发

    大模型蒸馏解决方案

    项目简介技术点:40项测验:0次

    利用计算机视觉技术,上传照片,选择不同的服装进行试穿,使得用户无需到实体店,就能够在线上体验不同的风格,更方便地进行购物决策。该项目利用人体数据、服装图像和文本提示,扩 散模型Diffusion Model在人体数据和服装图像的控制因子下,分别处理文本提示,最后进行信息的融合,实现逼真的试衣效果。

    进入项目体验

    学习目标

    1.大模型优化加速原理及落地应用扩展 2.企业级大模型平台开发

    主讲解决方案

    1.虚拟试衣的常见解决方案| 2.阿里PAI平台使用的解决方案| 3.PAI—DSW环境搭建的解决方案| 4.虚拟试衣实践的解决方案

    主讲知识点

    1.虚拟试衣简介:背景,应用场景,优势,方法| 2.阿里PAI平台:介绍,平台意义,产品结构,PAI的架构,PAI的注册与开通| 3.PAI-DSW环境搭建:DSW介绍,产品特点,环境搭建方法| 4.虚拟试衣实践:Diffusers,加速器accelerate,下载SD模型,Lora微调,模型部署,推理验证

    项目简介技术点:40项测验:0次

    项目目标是将已知的某个大规模语言模型的特性或领域知识,迁移到一个小规模语言模型上。通过自动化构建和清洗语料集、高效的训练和部署方式,快速高效地完成蒸馏任务。

    学习目标

    1.大模型蒸馏专题应用 2.主流大模型核心原理、论文剖析

    主讲解决方案

    1.0基础建立语料集解决方案| 2.LLaMA-Factory实施硬标签蒸馏解决方案| 3.vllm高效部署解决方案+业务场景扩展

    主讲知识点

    1、使用公开底座的大模型,全自动化地建立和清洗语料集| 2、通过蒸馏的方式,迁移大模型地特性或领域知识| 3、高效部署大模型服务

  • 自然语言处理项目2高手班 12

    课时:8天技术点:80项测验:0次学习方式:线下面授

    学习目标

    1.图谱全流程管理:掌握从数据获取到图谱构建的全生命周期| 2.图谱理论与应用:熟悉知识图谱定义、类型及多领域应用| 3.Neo4j 技术:精通图数据库的存储与查询优化| 4.深度学习 NER:掌握 CRF、BERT、BiLSTM+CRF 等实体识别方法| 5.多样化关系抽取:熟练运用规则、Pipeline 与 Casrel 模型提取关系| 6.知识融合与消歧:掌握实体消歧和关系对齐技术| 7.医疗问答开发:实现意图识别与对话管理的智能问答系统| 8.NLP 语义处理 :精通自然语言理解(NLU)与生成(NLG)| 9.模型工程化:掌握数据预处理与模型训练全流程| 10.垂直领域图谱:构建医疗、商业等领域的定制知识图谱|

    医疗知识图谱项目是一款基于知识图谱的多功能问答机器人项目, 主要解决当前NLP领域中大规模知识图谱构建的问题和图谱落地的问题.知识图谱的构建主要分为知识构建和知识存储两大子系统.知识构建部分将重点完成命名实体识别和关系抽取的模型搭建与优化,深入解析并实现Casrel模型实现文本自动关系抽取的实现.并深入解析实体对齐和实体消歧的NLP难题解决方案, 深度结合工业界流行的解决方案. 最终呈现一个基于知识图谱的问答机器人。

    主讲解决方案

    1.数据获取与预处理|2.非结构化文本实体识别(NER)|3.非结构化文本多样化关系抽取|4.知识融合与实体消歧|5.Neo4j图数据库存储与查询优化|6.医疗问答系统|7.工程化部署|

    主讲知识点

    1.智能搜索优化 —— 利用语义理解与实体关联提升搜索准确性(图谱智能搜索)| 2.医疗诊断与研发 —— 构建医疗知识图谱,支持疾病诊断及药物研发| 3.高效知识存储与查询 —— 基于 Neo4j 存储与查询 SPO 三元组数据| 4.智能问答系统 —— 结合 NLU 与知识图谱实现精准问答| 5.异构数据整合 —— 通过实体抽取融合多源数据构建一致知识图谱

  • 自然语言处理实战高手班 13

    课时:2天技术点:20项测验:0次学习方式:线下面授

    学习目标

    1.NER命名实体识别任务实战| 2.关系抽取任务实战

    实战项目旨在通过新闻报道数据,完成命名实体识别(NER)任务,抽取人物、地点和组织三种实体。项目从数据收集到模型部署,涵盖了完整的NLP任务流程。学生通过分工协作,使用Doccano进行数据标注,采用BIO格式预处理数据,基于BERT+BiLSTM+CRF模型训练NER系统,并开发预测函数与API接口,最终通过Web界面展示结果并完成答辩汇报。

    主讲解决方案

    1.数据标注与审核:收集新闻报道数据;使用标注工具完成人物、地点、组织标注| 2.数据预处理:BIO标签预处理| 3.BERT+BiLSTM+CRF模型:BERT:提取上下文语义特征;BiLSTM:捕捉长距离依赖关系。CRF:优化标签序列,解决非法标签问题| 4.预测函数与API封装:加载训练好的模型,处理输入文本,输出BIO标签并解析实体

    主讲知识点

    1.命名实体识别(NER)与BIO标注:NER识别实体,BIO标注将文本转为序列标签| 2.BERT+BiLSTM+CRF模型原理:BERT提取语义,BiLSTM捕获依赖,CRF优化序列| 3.数据预处理与模型训练:BIO格式预处理,CRF损失训练,F1评估模型| 4.API封装与Web部署:Flask构建API,HTML+JS实现前后端交互| 5.团队协作与项目管理:Git版本控制,Trello任务管理,团队分工协作| 6.模型评估与优化:F1分数评估,超参数调优与数据增强优化

  • 面试加强课高手班 14

    课时:3天 技术点:40项 测验:0次 学习方式:线下面授

    学习目标

    1.熟悉模型部署常用方法| 2.掌握核心的机器学习和深度学习算法,应对工作中多应用场景落地| 3.掌握NLP项目核心流程和常见模型| 4.可胜任NLP、大模型算法工程师常见工作任务,并持续优化与迭代算法

    主讲内容

    1. 服务化框架实战该模块主要介绍服务化框架内容,相关内容如下:

    01-Flask作用与流程、Flask入门Hello World、Flask表单使用、Flask服务交付(json)| 02-基于Flask的中文垃圾邮件分类服务封装实战

    2. 模型容器化部署实战该部分主要学习模型容器化部署的相关内容:

    01-Gradio简介、Gradio安装及基本用法、Gradio基本参数(Interface+Blocks)、Gradio应用分享| 02-【案例】基于Gradio的文本分类服务封装案例实战| 03-【案例】基于Gradio的图像分类服务封装案例实战| 04-Docker介绍安装、Docker快速入手、Docker镜像操作、Docker容器操作| 05-Docker手动构建镜像、Docker自动构建镜像、Docker镜像推送| 06-【案例】中文垃圾邮件分类项目Docker部署实战

    3. 自然语言处理核心项目串讲该部分主要学习NLP面试核心的相关知识:

    01-Pandas数据处理与统计分析回顾| 02-机器学习回顾+面试高频题讲解| 03-深度学习回顾+面试高频题讲解

    4. 大模型核心项目串讲及简历优化该部分主要介绍大模型核心项目及高频面试题的内容:

    01-大模型高频面试题讲解| 02-大模型应用框架(推理框架+应用框架)| 03-项目简历优化及面试话术

  • 图像分析基础高手班 15

    课时:5天 技术点:100项 测验:1次 学习方式:线下面授

    学习目标

    1.熟悉深度学习主要及前沿网络模型的架构原理及在实际业务场景中的应用|2.掌握深度学习在计算机视觉中的应用,包括但不限于分割检测识别等等 3.掌握实际工作中深度学习的具体流程,数据及标注处理,建模训练,及模型部署应用等|4.可胜任深度学习算法工程师,图像与计算机视觉算法工程师等,并持续优化与迭代算法

    主讲内容

    1. 图像与视觉处理介绍该模块主要介绍计算机视觉的定义,发展历史及应用场景

    01_计算机视觉定义、计算机视觉发展历史|02_计算机视觉技术和应用场景、计算机视觉知识树和几大任务

    2. 图像分析该部分主要学习图像分析的相关内容:

    01_图像的表示方法;| 02_图像的几何变换;| 03_颜色变换;| 04_mixup;| 05_copypaste|

    3. 图像分类该部分主要学习图像分类的相关知识:

    01_分类的思想;| 02_经典网络结构;AlexNet;| 03_InceptionNet;| 04_ResNet;| 05_模型微调策略|

    4. 图像分割该部分主要介绍图像分割的内容:

    01_分割思想| 02_Unet;| 03_FCN Net;| 04_MaskRCNN|

  • 多模态大模型项目高手班 16

    课时:5天技术点:40项测验:0次学习方式:线下面授

    学习目标

    1.知道AIGC是什么,理解AIGC的产品形态| 2.知道图像生成的常用方式| 3.理解GAN ,VAE,Diffusion的思想| 4.掌握Stable Diffusion的网络结构| 5.理解文图匹配的clip模型| 6.理解Unet网络和采样算法的作用| 7.知道VAE解码器的作用| 8.知道dreambooth和LoRA的模型训练方式| 9.能够搭建图像生成的小程序

    基于Stable Diffusion的图像生成项目是一种基于深度学习的图像生成方法,旨在生成高质量、逼真的图像。该项目利用稳定扩散过程,通过逐渐模糊和清晰化图像来实现图像生成的过程。这种方法在图像生成领域具有广泛的应用,包括艺术创作、虚拟场景生成、数据增强等。

    主讲解决方案

    图像生成的常见解决方案| 文图匹配的解决方案| 扩散模型噪声去除的解决方案| 潜在空间扩散模型的解决方案| 扩散模型训练的解决方案| 小程序搭建的解决方案

    主讲知识点

    1.AIGC的详解:AIGC简介,类型,应用场景,产品形态| 2.图像生成算法:GAN; VAE ;Diffusion; DALLe; imagen| 3.StableDiffusion的详解:Diffusion,latent diffusion ;satble diffusion| 4.stablediffusion实践: 模型构建,模型训练,lora,dreambooth,图像生成效果| 5.图像生成小程序搭建: 基于stablediffusion构建图像生成的小程序

  • AI大模型开发(Python) V版本课程说明

    课程名称:主要针对:主要使用开发工具:

    课程介绍

返回课程目录

↑ 上拉查看下阶段课程

热点技术 “周”更新日志

更多JavaEE更新日志按周更新热点/前沿技术

  • 新增2024-04-17

    · 路由组件VueRouter· watch侦听· 状态管理Pinia

  • 新增2024-04-10

    · TypeScript· Vue3指令· ElementPlus

  • 升级2024-04-03

    · JS事件监听 · JS模块化 · CSS盒子模型

  • 升级2024-03-28

    · Redis分片插槽原理 · Redis主从数据同步原理 · 连接Redis集群

  • 升级2024-03-21

    · Redis持久化AOF · Redis主从集群搭建 · Redis分片集群

  • 升级2024-03-14

    · Redis事务 · Redis的Lua脚本 · Redis持久化RDB

专职课研团队专职教学团队

人工智能专职课研团队
人才筛选标准
人工智能教育培训课研团队 人工智能教育培训教研团队 人工智能教育培训讲师团队人才标准

标准化研发人才画像
多维面试(五面)
研究院小组诊断测评
全链路面试流程监控

课研人员素质考核
课程设计考核
大纲设计考核
讲义撰写考核
视频录制考核
课堂试炼考核
产品全方位审评
考核答辩

技术开源历练
技术私享会
大牛技术沙龙
企业技术共享

人工智能专职课研团队
课程研发体系标准

信息库

应用市场调研+大
数据分析
获取前沿发展方向

课题研究库

前沿热门课题深入
剖析+技术攻坚,
保障课程前瞻性

解决方案库

基于市场主流技术研
发解决方案,
应对职场难题

项目库

基于热门行业领域联合
大牛顾问团,
研发“大厂级”项目

研发人才库

来自华为、IBM等百人大牛团,每年斥巨资,
研发行业标杆优质课程

人工智能专职课研团队
研发老师履历
人工智能专职教学团队
人才筛选标准
人工智能ai培训课研团队 ai算法工程师培训课研团队 ai算法工程师培训讲师团队

标准化讲师画像初试技术深度
复试授课质量终试价值观

定制个性化考核方案讲师素质考核
视频录制考核排课、备课产出物考核
教育心理考核教学方法考核
课堂试讲考核正式授课答辩

学员满意度打分阶段课程评审
多维培养计划讲师晋升通道

教学团队独创三大教学法
讲透技术重难点
  • 情景式教学法将教学过程形象化的一种授课方法,集风趣、
    知识、故事场景于一体,可大大提高学员对
    知识的理解和吸收

  • 场景式授课通过分析场景特点、梳理场景流程、呈
    现给定场景下技术的实现3个步骤,向学
    员清晰的展现了开发的全流程。

  • Open教学法OPEN 教学法是由传智教育培训院首创的一套
    教学方法论,旨在「用更短的时间讲明白一个
    知识点」

人工智能专职教学团队
研发老师履历
专属教学服务 保障学习结果
  • 入学多维测评,
    定制专属学习计划;
    目标导向式学习,
    精准定靶不脱节;
  • 随堂诊断纠错,
    扫清理解盲点;
    智能指引式建议,
    分层教学,
    因材施教;
  • 阶段效果测评,
    消除知识薄弱点;
    循序渐进式练习,
    从理论到应用;
    随时有问必答,
    攻克技术难点;
  • 学员薄弱
    知识可视化,
    精准查漏补缺;
    BI报表数据呈现,
    精准把控教学质量。
在线咨询