|
|
|
|
|
|
|
|
ISBN |
9787121493232 |
定价 |
RMB99.00 |
售价 |
RM108.90 |
优惠价 |
RM81.68 * (-25%)
|
作者 |
庄建,騰海雲,庄金蘭
|
出版社 |
電子工業出版社
|
出版日期 |
2024-12-01 |
装订 |
平裝. 無. 308 页. 26. |
库存量 |
購買後立即進貨 下单时可选择“空运”或“海运”(空运和海运需独立下单)。空运费每本书/CD是RM31.50。 空运需时8-11个工作天,海运需时约30个工作天。 (以上预计时间不包括出版社调货的时间以及尚未出版的预购商品) 库存有限或需要调货,订购时间可能延长。如无法订购则将通知进行退款。 |
|
我要订购 有现货时通知我 |
|
放入下次购买清单 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
購買中國簡體書籍請注意:
1. 因裝幀品質及貨運條件未臻完善,中國簡體書可能有出現磨痕、凹痕、折痕等問題,故簡體字館除封面破損、內頁脫落、缺頁等較嚴重的狀態外,其餘所有商品將正常出貨。
|
|
|
|
|
|
|
|
|
目錄
第1章 從零開始大模型之旅
1.1 對話機器人歷史
1.1.1 人機同頻交流
1.1.2 人機對話發展歷史
1.2 人工智能
1.2.1 從感知到創造
1.2.2 通用人工智能
1.2.3 發展方向
1.2.4 本書焦點
1.3 本章小結
第2章 大模型私有化部署
2.1 CUDA環境準備
2.1.1 基礎環境
2.1.2 大模型運行環境
2.1.3 安裝顯卡驅動
2.1.4 安裝CUDA
2.1.5 安裝cuDNN
2.2 深度學習環境準備
2.2.1 安裝Anaconda環境
2.2.2 服務器環境下的環境啟動
2.2.3 安裝PyTorch
2.3 GLM-3和GLM
2.3.1 GLM-3介紹
2.3.2 GLM-4介紹
2.4 GLM-4私有化部署
2.4.1 創建虛擬環境
2.4.2 下載GLM-4項目文件
2.4.3 安裝項目依賴包
2.4.4 下載模型權重
2.5 運行GLM-4的方式
2.5.1 基於命令行的交互式對話
2.5.2 基於Gradio庫的Web端對話應用
2.5.3 OpenAI風格的API調用方法
2.5.4 模型量化部署
2.6 本章小結
第3章 大模型理論基礎
3.1 自然語言領域中的數據
3.1.1 時間序列數據
3.1.2 分詞
3.1.3 Token
3.1.4 Embedding
3.1.5 語義向量空間
3.2 語言模型歷史演進
3.2.1 語言模型歷史演進
3.2.2 統計語言模型
3.2.3 神經網絡語言模型
3.3 注意力機制
3.3.1 RNN模型
3.3.2 Seq2Seq模型
3.3.3 Attention注意力機制
3.4 Transformer架構
3.4.1 整體架構
3.4.2 Self-Attention
3.4.3 Multi-Head Attention
3.4.4 Encoder
3.4.5 Decoder
3.4.6 實驗效果
3.5 本章小結
第4章 大模型開發工具
4.1 Huggingface
4.1.1 Huggingface介紹
4.1.2 安裝Transformers庫
4.2 大模型開發工具
4.2.1 開發範式
4.2.2 Transformers庫核心設計
4.3 Transformers庫詳解
4.3.1 NLP任務處理全流程
4.3.2 數據轉換形式
4.3.3 Tokenizer
4.3.4 模型加載和解讀
4.3.5 模型的輸出
4.3.6 模型的保存
4.4 全量微調訓練方法
4.4.1 Datasets庫和Accelerate庫
4.4.2 數據格式
4.4.3 數據預處理
4.4.4 模型訓練的參數
4.4.5 模型訓練
4.4.6 模型評估
4.5 本章小結
第5章 高效微調方法
5.1 主流的高效微調方法介紹
5.1.1 微調方法介紹
5.1.2 Prompt的提出背景
5.2 PEFT庫快速入門
5.2.1 介紹
5.2.2 設計理念
5.2.3 使用
5.3 Prefix Tuning
5.3.1 背景
5.3.2 核心技術解讀
5.3.3 實現步驟
5.3.4 實驗結果
5.4 Prompt Tuning
5.4.1 背景
5.4.2 核心技術解讀
5.4.3 實現步驟
5.4.4 實驗結果
5.5 P-Tuning
5.5.1 背景
5.5.2 核心技術解讀
5.5.3 實現步驟
5.5.4 實驗結果
5.6 P-Tuning V2
5.6.1 背景
5.6.2 核心技術解讀
5.6.3 實現步驟
5.6.4 實驗結果
5.7 本章小結
第6章 LoRA微調GLM-4實戰
6.1 LoRA
6.1.1 背景
6.1.2 核心技術解讀
6.1.3 LoRA的特點
6.1.4 實現步驟
6.1.5 實驗結果
6.2 AdaLoRA
6.2.1 LoRA的缺陷
6.2.2 核心技術解讀
6.2.3 實現步驟
6.2.4 實驗結果
6.3 QLoRA
6.3.1 背景
6.3.2 技術原理解析
6.4 量化技術
6.4.1 背景
6.4.2 量化技術分類
6.4.3 BitsAndBytes庫
6.4.4 實現步驟
6.4.5 實驗結果
6.5 本章小結
第7章 提示工程入門與實踐
7.1 探索大模型潛力邊界
7.1.1 潛力的來源
7.1.2 Prompt的六個建議
7.2 Prompt實踐
7.2.1 四個經典推理問題
7.2.2 大模型原始表現
7.3 提示工程
7.3.1 提示工程的概念
7.3.2 Few-shot
7.3.3 通過思維鏈提示法提升模型推理能力
7.3.4 Zero-shot-CoT提示方法
7.3.5 Few-shot-CoT提示方法
7.4 Least-to-Most Prompting(LtM提示方法)
7.4.1 Least-to-Most Prompting基本概念
7.4.2 Zero-shot-LtM提示過程
7.4.3 效果驗證
7.5 提示使用技巧
7.5.1 B.R.O.K.E提示框架
7.5.2 C.O.A.S.T提示框架
7.5.3 R.O.S.E.S提示框架
7.6 本章小結
第8章 大模型與中間件
8.1 AI Agent
8.1.1 從AGI到Agent
8.1.2 Agent概念
8.1.3 AI Agent應用領域
8.2 大模型對話模式
8.2.1 模型分類
8.2.2 多角色對話模式
8.3 多角色對話模式實戰
8.3.1 messages參數結構及功能解釋
8.3.2 messages參數中的角色劃分
8.4 Function Calling功能
……. |
|
|
|
|
|
|
|
|
|
|
|