登入帳戶  | 訂單查詢  | 購物車/收銀台(0) | 在線留言板  | 付款方式  | 聯絡我們  | 運費計算  | 幫助中心 |  加入書簽
會員登入   新用戶註冊
HOME新書上架暢銷書架好書推介特價區會員書架精選月讀2024年度TOP分類閱讀雜誌 香港/國際用戶
最新/最熱/最齊全的簡體書網 品種:超過100萬種書,正品正价,放心網購,悭钱省心 送貨:速遞 / 物流,時效:出貨後2-4日

2025年01月出版新書

2024年12月出版新書

2024年11月出版新書

2024年10月出版新書

2024年09月出版新書

2024年08月出版新書

2024年07月出版新書

2024年06月出版新書

2024年05月出版新書

2024年04月出版新書

2024年03月出版新書

2024年02月出版新書

2024年01月出版新書

2023年12月出版新書

『簡體書』大模型实战:微调、优化与私有化部署

書城自編碼: 4060026
分類: 簡體書→大陸圖書→計算機/網絡程序設計
作者: 庄建 等
國際書號(ISBN): 9787121493232
出版社: 电子工业出版社
出版日期: 2024-12-01

頁數/字數: /
書度/開本: 16开 釘裝: 平塑

售價:NT$ 505

我要買

share:

** 我創建的書架 **
未登入.



新書推薦:
隐逸之间:陶渊明精神世界中的自然、历史与社会
《 隐逸之间:陶渊明精神世界中的自然、历史与社会 》

售價:NT$ 352.0
独一无二的战争
《 独一无二的战争 》

售價:NT$ 500.0
天京之围(谭伯牛代表作,看晚清大变局下湘军崛起的政治智慧)
《 天京之围(谭伯牛代表作,看晚清大变局下湘军崛起的政治智慧) 》

售價:NT$ 500.0
王朝的崩溃(揭秘17个朝代的毁灭时刻,一本书读懂五千年中华史的奥秘)
《 王朝的崩溃(揭秘17个朝代的毁灭时刻,一本书读懂五千年中华史的奥秘) 》

售價:NT$ 398.0
劳动力市场中反垄断的缺席
《 劳动力市场中反垄断的缺席 》

售價:NT$ 281.0
财富与周期:宏观经济第一课
《 财富与周期:宏观经济第一课 》

售價:NT$ 454.0
托举的力量:给孩子应对未来的底气
《 托举的力量:给孩子应对未来的底气 》

售價:NT$ 305.0
万有引力书系 长辈的故事 一部映照20世纪华夏大地栉风沐雨的家族记忆史 两大家族的命运沉浮 一个民族的百年变局 留下长辈的故事 比留下他们
《 万有引力书系 长辈的故事 一部映照20世纪华夏大地栉风沐雨的家族记忆史 两大家族的命运沉浮 一个民族的百年变局 留下长辈的故事 比留下他们 》

售價:NT$ 449.0

建議一齊購買:

+

NT$ 782
《 代码整洁之道 》
+

NT$ 384
《 PHP Web安全开发实战 》
+

NT$ 454
《 小学生Python创意编程(视频教学版) 》
+

NT$ 354
《 12岁开始学JavaScript和Web应用 》
+

NT$ 560
《 深入浅出Go语言编程从原理解析到实战进阶 》
+

NT$ 709
《 算法设计与分析基础(第3版 详解版) 》
內容簡介:
人工智能已在多个行业得到成功应用,大模型的应用已成为突破性进展的重要驱动力,而在特定垂直领域,如医疗、法律、金融等,大模型微调面临独特的挑战和需求。本书致力于大型语言模型微调与应用的关键技术,本书探讨两个热门应用方向:大模型的知识专业性和时效性。本书剖析了垂直领域大模型训练的背景及意义,探讨大模型在垂直领域的迁移学习、应用部署与效果评估等核心内容,结合实际案例,深入浅出地解析了每个环节的关键问题和解决方案,引领读者了解行业内最新研究成果与发展趋势,方便读者快捷地嫁接到各个行业。
關於作者:
庄建,中国科学院高能物理研究所研究员,中国散裂中子源实验分总体电气总工,CSNS实验控制研发团队负责人和学科带头人,主要负责组织中国散裂中子源中子谱仪的实验控制与数据获取方向的研究。其中包括分布式控制,大数据的获取、传输与处理,高精度分布式时间测量,人工智能技术在物理实验中的应用等方向。2020年出版《深度学习图像识别技术》一书,并荣获机械工业出版社计算机分社\20年优秀作者”称号。
目錄
目 录
第1章 从零开始大模型之旅1
1.1 对话机器人历史1
1.1.1 人机同频交流1
1.1.2 人机对话发展历史2
1.2 人工智能4
1.2.1 从感知到创造4
1.2.2 通用人工智能7
1.2.3 发展方向9
1.2.4 本书焦点10
1.3 本章小结11
第2章 大模型私有化部署12
2.1 CUDA环境准备12
2.1.1 基础环境12
2.1.2 大模型运行环境13
2.1.3 安装显卡驱动14
2.1.4 安装CUDA18
2.1.5 安装cuDNN24
2.2 深度学习环境准备26
2.2.1 安装Anaconda环境26
2.2.2 服务器环境下的环境启动30
2.2.3 安装PyTorch32

2.3 GLM-3和GLM-434
2.3.1 GLM-3介绍34
2.3.2 GLM-4介绍36
2.4 GLM-4私有化部署36
2.4.1 创建虚拟环境37
2.4.2 下载GLM-4项目文件37
2.4.3 安装项目依赖包39
2.4.4 下载模型权重40
2.5 运行GLM-4的方式41
2.5.1 基于命令行的交互式对话42
2.5.2 基于Gradio库的Web端对话应用42
2.5.3 OpenAI风格的API调用方法43
2.5.4 模型量化部署45
2.6 本章小结47
第3章 大模型理论基础49
3.1 自然语言领域中的数据49
3.1.1 时间序列数据49
3.1.2 分词50
3.1.3 Token53
3.1.4 Embedding53
3.1.5 语义向量空间54
3.2 语言模型历史演进55
3.2.1 语言模型历史演进55
3.2.2 统计语言模型57
3.2.3 神经网络语言模型58
3.3 注意力机制58
3.3.1 RNN模型58
3.3.2 Seq2Seq模型60
3.3.3 Attention注意力机制62
3.4 Transformer架构65
3.4.1 整体架构65
3.4.2 Self-Attention66
3.4.3 Multi-Head Attention68
3.4.4 Encoder68
3.4.5 Decoder70
3.4.6 实验效果71
3.5 本章小结72
第4章 大模型开发工具73
4.1 Huggingface73
4.1.1 Huggingface介绍73
4.1.2 安装Transformers库77
4.2 大模型开发工具79
4.2.1 开发范式79
4.2.2 Transformers库核心设计80
4.3 Transformers库详解84
4.3.1 NLP任务处理全流程84
4.3.2 数据转换形式86
4.3.3 Tokenizer88
4.3.4 模型加载和解读92
4.3.5 模型的输出94
4.3.6 模型的保存97
4.4 全量微调训练方法98
4.4.1 Datasets库和Accelerate库98
4.4.2 数据格式101
4.4.3 数据预处理103
4.4.4 模型训练的参数106
4.4.5 模型训练108
4.4.6 模型评估110
4.5 本章小结115
第5章 高效微调方法117
5.1 主流的高效微调方法介绍117
5.1.1 微调方法介绍117
5.1.2 Prompt的提出背景119
5.2 PEFT库快速入门121
5.2.1 介绍121
5.2.2 设计理念122
5.2.3 使用125
5.3 Prefix Tuning129
5.3.1 背景129
5.3.2 核心技术解读129
5.3.3 实现步骤131
5.3.4 实验结果134
5.4 Prompt Tuning135
5.4.1 背景135
5.4.2 核心技术解读136
5.4.3 实现步骤137
5.4.4 实验结果139
5.5 P-Tuning140
5.5.1 背景140
5.5.2 核心技术解读141
5.5.3 实现步骤142
5.5.4 实验结果144
5.6 P-Tuning V2145
5.6.1 背景145
5.6.2 核心技术解读146
5.6.3 实现步骤147
5.6.4 实验结果149
5.7 本章小结150
第6章 LoRA微调GLM-4实战151
6.1 LoRA151
6.1.1 背景151
6.1.2 核心技术解读152
6.1.3 LoRA的特点153
6.1.4 实现步骤155
6.1.5 实验结果157
6.2 AdaLoRA157
6.2.1 LoRA的缺陷157
6.2.2 核心技术解读158
6.2.3 实现步骤160
6.2.4 实验结果161
6.3 QLoRA162
6.3.1 背景162
6.3.2 技术原理解析163
6.4 量化技术165
6.4.1 背景165
6.4.2 量化技术分类165
6.4.3 BitsAndBytes库166
6.4.4 实现步骤166
6.4.5 实验结果169
6.5 本章小结169
第7章 提示工程入门与实践170
7.1 探索大模型潜力边界170
7.1.1 潜力的来源170
7.1.2 Prompt的六个建议171
7.2 Prompt实践173
7.2.1 四个经典推理问题173
7.2.2 大模型原始表现175
7.3 提示工程177
7.3.1 提示工程的概念177
7.3.2 Few-shot177
7.3.3 通过思维链提示法提升模型推理能力180
7.3.4 Zero-shot-CoT提示方法181
7.3.5 Few-shot-CoT提示方法185
7.4 Least-to-Most Prompting(LtM提示方法)188
7.4.1 Least-to-Most Prompting基本概念188
7.4.2 Zero-shot-LtM提示过程189
7.4.3 效果验证191
7.5 提示使用技巧192
7.5.1 B.R.O.K.E提示框架193
7.5.2 C.O.A.S.T提示框架195
7.5.3 R.O.S.E.S提示框架196
7.6 本章小结197
第8章 大模型与中间件198
8.1 AI Agent198
8.1.1 从AGI到Agent198
8.1.2 Agent概念199
8.1.3 AI Agent应用领域200
8.2 大模型对话模式201
8.2.1 模型分类201
8.2.2 多角色对话模式203
8.3 多角色对话模式实战204
8.3.1 messages参数结构及功能解释204
8.3.2 messages参数中的角色划分205
8.4 Function Calling功能207
8.4.1 发展历史208
8.4.2 简单案例209
8.5 实现多函数214
8.5.1 定义多个工具函数214
8.5.2 测试结果217
8.6 Bing搜索嵌入LLM217
8.6.1 昙花一现的Browsing with Bing217
8.6.2 需求分析218
8.6.3 Google搜索API的获取和使用220
8.6.4 构建自动搜索问答机器人223
8.7 本章小结225
第9章 LangChain理论与实战226
9.1 整体介绍226
9.1.1 什么是LangChain226
9.1.2 意义227
9.1.3 架构228
9.2 Model I/O229
9.2.1 架构229
9.2.2 LLM230
9.2.3 ChatModel233
9.2.4 Prompt Template234
9.2.5 实战:LangChain接入本地GLM237
9.2.6 Parser239
9.3 Chain240
9.3.1 基础概念240
9.3.2 常用的Chain241
9.4 Memory249
9.4.1 基础概念249
9.4.2 流程解读250
9.4.3 常用Memory251
9.5 Agents257
9.5.1 理论257
9.5.2 快速入门259
9.5.3 架构262
9.6 LangChain实现Function Calling266
9.6.1 工具定义266
9.6.2 OutputParser267
9.6.3 使用268
9.7 本章小结269
第10章 实战:垂直领域大模型270
10.1 QLoRA微调GLM-4270
10.1.1 定义全局变量和参数270
10.1.2 红十字会数据准备271
10.1.3 训练模型283
10.2 大模型接入数据库291
10.2.1 大模型挑战291
10.2.2 数据集准备292
10.2.3 SQLite3293
10.2.4 获取数据库信息294
10.2.5 构建tools信息297
10.2.6 模型选择298
10.2.7 效果测试299
10.3 LangChain重写查询300
10.3.1 环境配置300
10.3.2 工具使用301
10.4 RAG检索增强302
10.4.1 自动化数据生成303
10.4.2 RAG搭建303
10.5 本章小结307
参考文献308

 

 

書城介紹  | 合作申請 | 索要書目  | 新手入門 | 聯絡方式  | 幫助中心 | 找書說明  | 送貨方式 | 付款方式 台灣用户 | 香港/海外用户
megBook.com.tw
Copyright (C) 2013 - 2025 (香港)大書城有限公司 All Rights Reserved.