国产第1页_91在线亚洲_中文字幕成人_99久久久久久_五月宗合网_久久久久国产一区二区三区四区

讀書月攻略拿走直接抄!
歡迎光臨中圖網 請 | 注冊
> >>
大模型實戰:微調、優化與私有化部署

包郵 大模型實戰:微調、優化與私有化部署

作者:莊建等 著
出版社:電子工業出版社出版時間:2024-12-01
開本: 其他 頁數: 324
中 圖 價:¥69.3(7.0折) 定價  ¥99.0 登錄后可看到會員價
加入購物車 收藏
開年大促, 全場包郵
?新疆、西藏除外
本類五星書更多>

大模型實戰:微調、優化與私有化部署 版權信息

大模型實戰:微調、優化與私有化部署 內容簡介

人工智能已在多個行業得到成功應用,大模型的應用已成為突破性進展的重要驅動力,而在特定垂直領域,如醫療、法律、金融等,大模型微調面臨獨特的挑戰和需求。本書致力于大型語言模型微調與應用的關鍵技術,本書探討兩個熱門應用方向:大模型的知識專業性和時效性。本書剖析了垂直領域大模型訓練的背景及意義,探討大模型在垂直領域的遷移學習、應用部署與效果評估等核心內容,結合實際案例,深入淺出地解析了每個環節的關鍵問題和解決方案,引領讀者了解行業內*新研究成果與發展趨勢,方便讀者快捷地嫁接到各個行業。

大模型實戰:微調、優化與私有化部署 目錄

目 錄第1章 從零開始大模型之旅 11.1 對話機器人歷史 11.1.1 人機同頻交流 11.1.2 人機對話發展歷史 21.2 人工智能 41.2.1 從感知到創造 41.2.2 通用人工智能 71.2.3 發展方向 91.2.4 本書焦點 101.3 本章小結 11第2章 大模型私有化部署 122.1 CUDA環境準備 122.1.1 基礎環境 12目 錄 第1章 從零開始大模型之旅 1 1.1 對話機器人歷史 1 1.1.1 人機同頻交流 1 1.1.2 人機對話發展歷史 2 1.2 人工智能 4 1.2.1 從感知到創造 4 1.2.2 通用人工智能 7 1.2.3 發展方向 9 1.2.4 本書焦點 10 1.3 本章小結 11 第2章 大模型私有化部署 12 2.1 CUDA環境準備 12 2.1.1 基礎環境 12 2.1.2 大模型運行環境 13 2.1.3 安裝顯卡驅動 14 2.1.4 安裝CUDA 18 2.1.5 安裝cuDNN 24 2.2 深度學習環境準備 26 2.2.1 安裝Anaconda環境 26 2.2.2 服務器環境下的環境啟動 30 2.2.3 安裝PyTorch 322.3 GLM-3和GLM-4 34 2.3.1 GLM-3介紹 34 2.3.2 GLM-4介紹 36 2.4 GLM-4私有化部署 36 2.4.1 創建虛擬環境 37 2.4.2 下載GLM-4項目文件 37 2.4.3 安裝項目依賴包 39 2.4.4 下載模型權重 40 2.5 運行GLM-4的方式 41 2.5.1 基于命令行的交互式對話 42 2.5.2 基于Gradio庫的Web端對話應用 42 2.5.3 OpenAI風格的API調用方法 43 2.5.4 模型量化部署 45 2.6 本章小結 47 第3章 大模型理論基礎 49 3.1 自然語言領域中的數據 49 3.1.1 時間序列數據 49 3.1.2 分詞 50 3.1.3 Token 53 3.1.4 Embedding 53 3.1.5 語義向量空間 54 3.2 語言模型歷史演進 55 3.2.1 語言模型歷史演進 55 3.2.2 統計語言模型 57 3.2.3 神經網絡語言模型 58 3.3 注意力機制 58 3.3.1 RNN模型 58 3.3.2 Seq2Seq模型 60 3.3.3 Attention注意力機制 62 3.4 Transformer架構 65 3.4.1 整體架構 65 3.4.2 Self-Attention 66 3.4.3 Multi-Head Attention 68 3.4.4 Encoder 68 3.4.5 Decoder 70 3.4.6 實驗效果 71 3.5 本章小結 72 第4章 大模型開發工具 73 4.1 Huggingface 73 4.1.1 Huggingface介紹 73 4.1.2 安裝Transformers庫 77 4.2 大模型開發工具 79 4.2.1 開發范式 79 4.2.2 Transformers庫核心設計 80 4.3 Transformers庫詳解 84 4.3.1 NLP任務處理全流程 84 4.3.2 數據轉換形式 86 4.3.3 Tokenizer 88 4.3.4 模型加載和解讀 92 4.3.5 模型的輸出 94 4.3.6 模型的保存 97 4.4 全量微調訓練方法 98 4.4.1 Datasets庫和Accelerate庫 98 4.4.2 數據格式 101 4.4.3 數據預處理 103 4.4.4 模型訓練的參數 106 4.4.5 模型訓練 108 4.4.6 模型評估 110 4.5 本章小結 115 第5章 高效微調方法 117 5.1 主流的高效微調方法介紹 117 5.1.1 微調方法介紹 117 5.1.2 Prompt的提出背景 119 5.2 PEFT庫快速入門 121 5.2.1 介紹 121 5.2.2 設計理念 122 5.2.3 使用 125 5.3 Prefix Tuning 129 5.3.1 背景 129 5.3.2 核心技術解讀 129 5.3.3 實現步驟 131 5.3.4 實驗結果 134 5.4 Prompt Tuning 135 5.4.1 背景 135 5.4.2 核心技術解讀 136 5.4.3 實現步驟 137 5.4.4 實驗結果 139 5.5 P-Tuning 140 5.5.1 背景 140 5.5.2 核心技術解讀 141 5.5.3 實現步驟 142 5.5.4 實驗結果 144 5.6 P-Tuning V2 145 5.6.1 背景 145 5.6.2 核心技術解讀 146 5.6.3 實現步驟 147 5.6.4 實驗結果 149 5.7 本章小結 150 第6章 LoRA微調GLM-4實戰 151 6.1 LoRA 151 6.1.1 背景 151 6.1.2 核心技術解讀 152 6.1.3 LoRA的特點 153 6.1.4 實現步驟 155 6.1.5 實驗結果 157 6.2 AdaLoRA 157 6.2.1 LoRA的缺陷 157 6.2.2 核心技術解讀 158 6.2.3 實現步驟 160 6.2.4 實驗結果 161 6.3 QLoRA 162 6.3.1 背景 162 6.3.2 技術原理解析 163 6.4 量化技術 165 6.4.1 背景 165 6.4.2 量化技術分類 165 6.4.3 BitsAndBytes庫 166 6.4.4 實現步驟 166 6.4.5 實驗結果 169 6.5 本章小結 169 第7章 提示工程入門與實踐 170 7.1 探索大模型潛力邊界 170 7.1.1 潛力的來源 170 7.1.2 Prompt的六個建議 171 7.2 Prompt實踐 173 7.2.1 四個經典推理問題 173 7.2.2 大模型原始表現 175 7.3 提示工程 177 7.3.1 提示工程的概念 177 7.3.2 Few-shot 177 7.3.3 通過思維鏈提示法提升模型推理能力 180 7.3.4 Zero-shot-CoT提示方法 181 7.3.5 Few-shot-CoT提示方法 185 7.4 Least-to-Most Prompting(LtM提示方法) 188 7.4.1 Least-to-Most Prompting基本概念 188 7.4.2 Zero-shot-LtM提示過程 189 7.4.3 效果驗證 191 7.5 提示使用技巧 192 7.5.1 B.R.O.K.E提示框架 193 7.5.2 C.O.A.S.T提示框架 195 7.5.3 R.O.S.E.S提示框架 196 7.6 本章小結 197 第8章 大模型與中間件 198 8.1 AI Agent 198 8.1.1 從AGI到Agent 198 8.1.2 Agent概念 199 8.1.3 AI Agent應用領域 200 8.2 大模型對話模式 201 8.2.1 模型分類 201 8.2.2 多角色對話模式 203 8.3 多角色對話模式實戰 204 8.3.1 messages參數結構及功能解釋 204 8.3.2 messages參數中的角色劃分 205 8.4 Function Calling功能 207 8.4.1 發展歷史 208 8.4.2 簡單案例 209 8.5 實現多函數 214 8.5.1 定義多個工具函數 214 8.5.2 測試結果 217 8.6 Bing搜索嵌入LLM 217 8.6.1 曇花一現的Browsing with Bing 217 8.6.2 需求分析 218 8.6.3 Google搜索API的獲取和使用 220 8.6.4 構建自動搜索問答機器人 223 8.7 本章小結 225 第9章 LangChain理論與實戰 226 9.1 整體介紹 226 9.1.1 什么是LangChain 226 9.1.2 意義 227 9.1.3 架構 228 9.2 Model I/O 229 9.2.1 架構 229 9.2.2 LLM 230 9.2.3 ChatModel 233 9.2.4 Prompt Template 234 9.2.5 實戰:LangChain接入本地GLM 237 9.2.6 Parser 239 9.3 Chain 240 9.3.1 基礎概念 240 9.3.2 常用的Chain 241 9.4 Memory 249 9.4.1 基礎概念 249 9.4.2 流程解讀 250 9.4.3 常用Memory 251 9.5 Agents 257 9.5.1 理論 257 9.5.2 快速入門 259 9.5.3 架構 262 9.6 LangChain實現Function Calling 266 9.6.1 工具定義 266 9.6.2 OutputParser 267 9.6.3 使用 268 9.7 本章小結 269 第10章 實戰:垂直領域大模型 270 10.1 QLoRA微調GLM-4 270 10.1.1 定義全局變量和參數 270 10.1.2 紅十字會數據準備 271 10.1.3 訓練模型 283 10.2 大模型接入數據庫 291 10.2.1 大模型挑戰 291 10.2.2 數據集準備 292 10.2.3 SQLite3 293 10.2.4 獲取數據庫信息 294 10.2.5 構建tools信息 297 10.2.6 模型選擇 298 10.2.7 效果測試 299 10.3 LangChain重寫查詢 300 10.3.1 環境配置 300 10.3.2 工具使用 301 10.4 RAG檢索增強 302 10.4.1 自動化數據生成 303 10.4.2 RAG搭建 303 10.5 本章小結 307 參考文獻 308
展開全部

大模型實戰:微調、優化與私有化部署 作者簡介

莊建,中國科學院高能物理研究所研究員,中國散裂中子源實驗分總體電氣總工,CSNS實驗控制研發團隊負責人和學科帶頭人,主要負責組織中國散裂中子源中子譜儀的實驗控制與數據獲取方向的研究。其中包括分布式控制,大數據的獲取、傳輸與處理,高精度分布式時間測量,人工智能技術在物理實驗中的應用等方向。2020年出版《深度學習圖像識別技術》一書,并榮獲機械工業出版社計算機分社"20年優秀作者”稱號。

商品評論(0條)
暫無評論……
書友推薦
編輯推薦
返回頂部
中圖網
在線客服
主站蜘蛛池模板: 深夜做爰性大片的视频 | 精品9e精品视频在线观看 | 男女午夜性爽快免费视频不卡 | 亚洲国产日韩在线人成电影 | 大屁股熟女一区二区三区 | 婷婷人人爽人人爽人人片 | 日本国产成人精品视频 | 国产一级爱 | 无遮挡一级毛片 | 久草操 | 亚洲愉拍自拍另类图片 | 国产视频在线观看免费 | 亚洲精品乱码久久久久久日本蜜臀 | 在线色视频网站 | 久久电影院久久国产 | 亚洲欧洲无码一区二区三区 | 婷婷五月综合丁香在线 | 国产91麻豆视频 | 久久久精品中文字幕 | 亚洲jizz日本人 | 一及毛片 | 免费黄色视屏网站 | 香蕉久久夜色精品升级完成 | 色射影院| 综合久久久久6亚洲综合 | www.日本黄 | 国产精品久久777777 | 欧美成ee人免费视频 | 免费毛片一级 | 亚洲免费在线视频 | 免费在线看黄 | a级免费观看 | 扒开女人内裤猛进猛出免费视频 | ww国产ww在线观看免 | 久 在线播放 | 午夜激情影院 | 99视频精品全国在线观看 | 亚洲自偷自偷精品 | 扒开双腿猛进入喷水免费视频 | 丝袜 中出 制服 人妻 美腿 | 天堂а√在线最新版中文在线 |