各有關單位:
為了企業在激烈市場競爭中脫穎而出,開拓新的業務領域,培育出精通大模型技術的專業人才。幫助學員系統學習AI大模型的設計、開發、優化與部署,成為推動未來智能科技發展的先行者和領導者,開啟個人職業生涯的全新篇章。中培偉業特邀相關領域權威專家精心打造了“AI大模型全棧工程師實戰訓練營”課程,于2025年在全國部分城市舉辦公開課。誠邀您的參與,有關事宜如下:
一、培訓背景
隨著科技的飛速發展,人工智能(AI)已成為引領新一輪科技革命和產業變革的重要驅動力。大模型(Large Language Models, LLMs)作為AI領域的一項革命性突破,正以前所未有的速度重塑著我們對智能交互、知識管理、內容創作乃至整個數字化世界的認知。近年來,諸如DeepSeek、GPT系列、Sora等大模型的不斷涌現,不僅展示了AI在自然語言處理領域的巨大潛力,也預示著AI技術即將邁入一個更加復雜、細膩且廣泛適用的新紀元。
人工智能成為全球焦點的背景下,2024年中國政府工作報告,就首次提出開展“人工智能+”行動,相信后續還有更多利好人工智能和“人工智能+”的政策即將釋放。而在國家層面推動“AI+”行動,無數的機會也將井噴。
二、培訓對象
·從事人工智能領域工作的人
如果你正在從事人工智能、機器學習、數據分析等相關領域的工作,或者想要進入這些
領域,那么學習AI大模型開發將會對你的職業發展有很大的幫助。
·軟件工程師和架構師
這類專業人士可以通過學習AI大模型開發課程來提升團隊的研發效率,了解大模型如何影響軟件架構,并掌握基于大模型的全新開發范式。
·對人工智能有濃厚興趣的人
對人工智能、機器學習等領域有濃厚的興趣,想要深入了解并掌握相關技能,并有一定的軟件開發基礎的從業者。
三、培訓收益
1.整體掌握大模型理論知識;
2.了解自注意力機制、Transformer模型、BERT模型;
3.掌握DeepSeek與ChatGPT原理與實戰;
4.了解LLM應用程序技術棧和提示詞工程Prompt Enginerring;
5.了解國產大模型ChatGLM;
6.了解視覺大模型技術優勢;
7.掌握語言理解與字幕生成及其應用;
8.掌握圖像生成和應用實操;
9.了解應用場景與潛力分析;
10.了解大模型企業商用項目實戰。
四、培訓信息
1)培訓方式:
培訓采用線下專家面授+同步直播的形式。所有課程均贈送學習教材、視頻回放、答疑交流群、促學服務等。并對考生提供專人報考、考試指導、證書郵寄等。多維度精細化教學,一站式報考服務,滿足不同企業及學員的學習需求。
2)培訓班次:2025年06月28-30日北京、10月27-29日成都、12月24-26日長沙
五、培訓內容
預備知識第一節:大模型理論知識
1. 初探大模型:起源與發展
2. GPT模型家族:從始至今
3. 大模型DeepSeek VS ChatGPT4的對比介紹
4. 大模型實戰-大模型2種學習路線的講解
5. 大模型最核心的三項技術:模型、微調和開發框架
6. DeepSeek的MoE 混合專家模型介紹
7. DeepSeek-R3后訓練階段與強化學習技術介紹
8. OpenAl文本模型A、B、C、D四大模型引擎簡介
9. 最強Embedding大模型text-embedding-ada模型介紹
10. 全球開源大模型性能評估榜單
11. 中文大模型生態介紹與GLM 130B模型介紹
12. DeepSeek模型介紹與部署門檻
13. DeepSeek開源生態:微調、多模態,WebUI等項目簡介
預備知識第二節:自注意力機制、Transformer模型、BERT模型
1. RNN-LSTM-GRU等基本概念
2. 編碼器、解碼器
3. 自注意力機制詳解
4. Transformer
5. Mask Multi-Head Attention
6. 位置編碼
7. 特定于任務的輸入轉換
8. 無監督預訓練、有監督 Fine-tuning
9. BERT思路的理解
10. BERT模型下游任務的網絡層設計
11. BERT的訓練
12. HuggingFace中BERT模型的推斷
13. 基于上下文的學習
14. 代碼和案例實踐:
基本問答系統的代碼實現
深入閱讀理解的代碼實現
段落相關性代碼實現
第三節:Embedding模型實戰
1. 大模型技術浪潮下的Embedding技術定位
2. Embedding技術入門介紹
3. 從Ono-hot到Embedding
4. Embedding文本衡量與相似度計算
5. OpenAl Embedding模型與開源Embedding框架
6. 兩代OpenAl Embedding模型介紹
7. text-embedding-ada-002模型調用方法詳解
8. text-embedding-ada-002模型參數詳解與優化策略
9. 借助Embedding進行特征編碼
10. Embedding結果的可視化展示與結果分析
【實戰】借助Embedding特征編碼完成有監督預測
【實戰】借助Embedding進行推薦系統冷啟動
【實戰】借助Embedding進行零樣本分類與文本搜索
11. Embedding模型結構微調優化
12. 借助CNN進行Embedding結果優化
【企業級實戰】海量文本的Embedding高效匹配
第四節:LLM應用程序技術棧和提示詞工程Prompt Enginerring
1. 設計模式:上下文學習
2. 數據預處理/嵌入
3. 提示構建/檢索
4. 提示執行/推理
5. 數據預處理/嵌入
6. Weaviate、Vespa 和 Qdrant等開源系統
7. Chroma 和 Faiss 等本地向量管理庫
8. pgvector 等OLTP 擴展
9. 提示構建/檢索
10. 提示執行/推理
11. 新興的大語言(LLM)技術棧
12. 數據預處理管道(data preprocessing pipeline)
13. 嵌入終端(embeddings endpoint )+向量存儲(vector store)
14. LLM 終端(LLM endpoints)
15. LLM 編程框架(LLM programming framework)
16. LangChain的主要功能及模塊
17. Prompts: 這包括提示管理、提示優化和提示序列化。
18. LLMs: 這包括所有LLMs的通用接口,以及常用的LLMs工具。
19. Document Loaders: 這包括加載文檔的標準接口,以及與各種文本數據源的集成。
20. Utils: 語言模型在與其他知識或計算源的交互
21. Python REPLs、嵌入、搜索引擎等
22. LangChain提供的常用工具
23. Indexes:語言模型結合自定義文本數據
24. Agents:動作執行、觀測結果,
25. LangChain的代理標準接口、可供選擇的代理、端到端代理示例
26. Chat:Chat模型處理消息
27. 代碼和案例實踐:
LLM大模型的使用
Prompts的設計和使用
第五節:國產大模型DeepSeek
1. 新一代DeepSeek模型API調用
2. DeepSeek開放平臺使用方法與APIKey申請
3. DeepSeek-V3、DeepSeek-R1、DeepEP介紹
4. DeepSeek在線知識庫使用及模型計費說明
5. DeepSeek模型SDK調用與三種運行方法
6. DeepSeek調用函數全參數詳解
7. DeepSeek Message消息格式與身份設置方法
8. DeepSeek tools外部工具調用方法
9. DeepSeek Function calling函數封裝12GLM4接入在線知識庫retrieval流程
10. DeepSeek接入互聯網web_search方法
【實戰】基于DeepSeek打造自動數據分析Agent
【實戰】基于DeepSeek的自然語言編程實戰
【實戰】基于DeepSeek Function call的用戶意圖識別
【實戰】基于GLM4的長文本讀取與優化
第六節:LangChain大模型框架構建
1. 構建垂直領域大模型的通用思路和方法
(1) 大模型+知識庫
(2) PEFT(參數高效的微調)
(3) 全量微調
(4) 從預訓練開始定制
2. LangChain介紹
3. LangChain模塊學習-LLMs 和 Prompts
4. LangChain之Chains模塊
5. LangChain之Agents模塊
6. LangChain之Callback模塊
7. Embedding嵌入
8. 自定義知識庫
9. 知識沖突的處理方式
10. 向量化計算可采用的方式
11. 文檔加載器模塊
12. 向量數據庫問答的設計
13. Lanchain競品調研和分析
14. Dust.tt/Semantic-kernel/Fixie.ai/Cognosis/GPT-Index
15. LlamaIndex介紹
16. LlamaIndex索引
17. 動手實現知識問答系統
18. 代碼和案例實踐:
動手實現知識問答機器人
LangChain文本摘要
PDF文本閱讀問答
第七節:使用LangGraph構建工作流
1. LangGraph 構建自適應RAG
2. LangGraph 應用場景、核心功能、特點
3. 基礎概念:節點、邊、圖等
4. LangGraph 的系統架構
5. 數據模型和存儲機制
6. 基本數據查詢與操作
7. 高級查詢:路徑查詢、模式匹配
8. 使用本地LLM自適應RAG
9. 代理RAG與糾正(CRAG)
第八節:LLM模型的私有化部署與調用
1. LLM 推理與本地私有化部署
2. 各種模型文件介紹
3. 模型的推理、量化介紹與實現
4. Modelscope、Hugging Face簡單介紹與使用
5. 大模型管理底座Ollama介紹
6. Ollama + lLama 部署開源大模型
7. Open WebUI發布與調用大模型
8. API Key獲取與 Llama微調實現
第九節:開源大模型微調實現
1. Llama_Factory 微調實戰
2. 提升模型性能方式介紹:Prompt、知識庫、微調
3. 如何科學構建訓練數據(基礎與專業數據混合訓練)
4. 微調常見方式介紹:微調、偏好對齊、蒸餾、獎勵模型
5. Llama3 模型架構與調用申請
6. 數據上傳與任務創建(job)
7. 訓練集與測試集拆分與模型評估
8. Unsloth微調平臺介紹
9. Llama3開源大模型的微調與使用
10. 模型的評估策略
第十節:大模型企業商用項目實戰
1. AI-Agent 構建可發布的智能客服系統
2. 智能體介紹與AutoGPT基本原理
3. AutoGPT安裝與環境配置
4. 實戰體驗:AutoGPT實現數據爬取、清洗、保存
5. 創建各種場景的AutoGPT
6. 內容創建
7. 客服服務
8. 數據分析
9. 代碼編寫
10. 創建應用程序
六、講師團隊
·劉老師,國內頂尖AI專家
擁有十幾年軟件研發經驗,十年企業培訓經驗,對Java、Python、區塊鏈等技術領域有獨特的研究,精通J2EE企業級開發技術。Java方向:設計模式、Spring MVC、MyBatis、Spring、StringBoot、WebService、CXF并且對Java源碼有深入研究。Python方向:Python OOP、Mongodb、Django、Scrapy爬蟲、基于Surprise庫數據推薦,Tensorflow人工智能框架、人臉識別技術。區塊鏈方向:BitCoin、Solidity、Truffle、Web3、IPFS、Hyperledger Fabirc、Go、EOS。
·鄒老師,長春工業大學人工智能研究院院長
工程學術帶頭人、華東建筑設計研究總院研究員、山東交通學院客座教授、南昌航空大學碩士生導師、中國軟件行業協會專家委員、上海市計劃生育科學研究所特聘專家、天津大學創業導師、中華中醫藥學會會員、中國醫藥教育協會老年運動與健康分會學術委員;領導睿客邦與全國二十多所高校、國企建立了AI聯合實驗室,完成50多個深度學習實踐項目,廣泛應用于醫療、交通、農業、氣象、銀行、電信等多個領域。
帶隊完成了數十個AI項目,內容不僅包括深度學習、機器學習、數據挖掘等具體技術要點,也包括AI的整體發展、現狀、應用、商業價值、未來方向等,涵蓋內容非常豐富。
七、相關證書
參加培訓并通過考試的學員,由工業和信息化部教育與考試中心統一頒發《AI大模型全棧技術(高級)》工業和信息化職業能力證書,證書可作為專業技術人員職業能力考核的證明,以及專業技術人員崗位聘用、任職、定級和晉升職務的重要依據。
八、收費標準
6800元/人(含培訓費、平臺費、資料費、視頻回放、證書、發票等費用)。
備注:參加面授的學員提供培訓期間的午餐。
九、報名方式
1)請參加人員將加蓋單位印章的《報名回執表》傳真或郵件至課程顧問。
2)相關費用請于開課前一周匯至我司銀行賬號,并提供付款憑證。
3)我們將于開課前兩周為學員發送《報到通知書》,詳細告知參培地點、乘車路線、食宿安排,會務聯系方式等事宜。
【報名咨詢】
聯系電話:010-62258232 62278113 13718601312 13120125786
聯 系 人:李先生 陳小姐