封面
版权信息
版权声明
O'Reilly Media Inc. 介绍
推荐序一 学习成为善用AI的人
第1版推荐序
推荐序二 开启一段有趣、有启发、有收获的冒险旅程
第1版推荐序
推荐序三 人人都要学会和AI相处
推荐序四 AI工程师:从智能革命的探索者到智能体时代的缔造者
推荐序五 未来正在生成中
推荐序六 AGI:不要旁观,要真正参与
第1版推荐序
推荐序七 AI是人类能力的指数级放大器
译者序 没有谁天生就是AI工程师
前言
排版约定
使用代码示例
O'Reilly在线学习平台(O'Reilly Online Learning)
联系我们
致谢
电子书
第1章 初识GPT-4和ChatGPT
1.1 LLM概述
1.1.1 探索语言模型和NLP的基础
1.1.2 理解Transformer架构及其在LLM中的作用
1.1.3 解密GPT模型的词元化和预测步骤
1.1.4 将视觉整合到LLM中
1.2 GPT模型简史:从GPT-1到GPT-4
1.2.1 GPT-1
1.2.2 GPT-2
1.2.3 GPT-3
1.2.4 从 GPT-3到InstructGPT
1.2.5 GPT-3.5、ChatGPT和Codex
1.2.6 GPT-4
1.2.7 人工智能向多模态演进
1.3 LLM用例和示例产品
1.3.1 Be My Eyes
1.3.2 摩根士丹利
1.3.3 可汗学院
1.3.4 多邻国
1.3.5 Yabble
1.3.6 Waymark
1.3.7 Inworld AI
1.4 警惕AI幻觉:限制与注意事项
1.5 借助高级功能释放GPT潜力
1.6 小结
第2章 深入了解OpenAI API
2.1 基本概念
2.2 OpenAI API中可用的模型
2.2.1 GPT Base
2.2.2 InstructGPT(遗留版)
2.2.3 GPT-3.5
2.2.4 GPT-4
2.3 在OpenAIPlayground中使用GPT模型
2.4 入门:OpenAIPython库
2.4.1 OpenAI服务访问与API密钥
2.4.2 Hello World
2.5 使用聊天补全模型
2.5.1 聊天补全端点的输入选项
2.5.2 调整 temperature和top_p
2.5.3 聊天补全端点的输出结果格式
2.5.4 视觉能力
2.5.5 请求JSON输出
2.6 使用其他文本补全模型
2.6.1 文本补全端点的输入选项
2.6.2 文本补全端点的输出结果格式
2.7 注意事项
2.7.1 定价和词元限制
2.7.2 安全与隐私:小心!
2.8 其他OpenAI API和功能
2.8.1 嵌入
2.8.2 审核
2.8.3 文本转语音
2.8.4 语音转文本
2.8.5 图像API
2.9 小结(含速查清单)
第3章 构建基于LLM的应用程序:功能与挑战
3.1 应用程序开发概述
3.1.1 API密钥管理
3.1.2 安全与数据隐私
3.2 软件架构设计原则
3.3 将LLM能力集成到你的项目中
3.3.1 对话能力
3.3.2 语言处理能力
3.3.3 人机交互能力
3.3.4 结合能力
3.4 示例项目
3.4.1 项目1:构建新闻生成器解决方案——语言处理
3.4.2 项目2:总结 YouTube 视频——语言处理
3.4.3 项目3:打造《塞尔达传说:旷野之息》专家——语言处理与对话
3.4.4 项目4:创建个人助理——人机界面
3.4.5 项目5:组织文档——语言处理
3.4.6 项目6:情感分析——语言处理
3.5 成本管理
3.6 基于LLM的应用程序的漏洞
3.6.1 分析输入和输出
3.6.2 提示词注入的不可避免性
3.7 合理使用外部API
3.7.1 处理错误和意外延迟问题
3.7.2 速率限制
3.7.3 提高响应能力,改善用户体验
3.8 小结
第4章 OpenAI高级LLM集成策略
4.1 提示工程
4.1.1 利用角色、上下文和任务设计有效的提示词
4.1.2 逐步思考
4.1.3 实现少样本学习
4.1.4 基于用户反馈的迭代优化
4.1.5 改善提示效果
4.2 微调
4.2.1 入门
4.2.2 使用OpenAI API进行微调
4.2.3 使用OpenAI的Web界面进行微调
4.2.4 微调应用程序
4.2.5 为电子邮件营销活动生成和微调合成数据
4.2.6 微调的成本
4.3 RAG
4.3.1 基础RAG
4.3.2 高级RAG
4.3.3 RAG的局限
4.4 策略选择
4.4.1 策略比较
4.4.2 评估
4.5 从普通应用程序到基于LLM的解决方案
4.5.1 提示词敏感性
4.5.2 非确定性
4.5.3 幻觉
4.6 小结
第5章 通过框架、插件等提升LLM的能力
5.1 LangChain框架
5.1.1 LangChain库
5.1.2 动态提示词
5.1.3 智能体和工具
5.1.4 记忆
5.1.5 嵌入
5.2 LlamaIndex框架
5.2.1 演示:10行代码实现RAG
5.2.2 LlamaIndex原则
5.2.3 定制化
5.3 GPT-4插件
5.3.1 概述
5.3.2 API
5.3.3 插件清单
5.3.4 OpenAPI规范
5.3.5 描述
5.4 GPTs
5.5 Assistants API
5.5.1 创建 Assistants API
5.5.2 利用你的Assistants API管理对话
5.5.3 函数调用
5.5.4 OpenAIWeb平台上的助手
5.6 小结
第6章 综合运用
6.1 关键要点
6.2 综合运用:助手用例
6.2.1 第一步:构思
6.2.2 第二步:定义需求
6.2.3 第三步:构建原型
6.2.4 第四步:改进、迭代
6.2.5 第五步:使解决方案更健壮
6.3 经验教训
关键术语表
工具、库和框架
作者简介
封面简介
附录A 部署私有化AI助手
A.1 前置准备
A.2 开始部署
A.2.1 安装Ollama
A.2.2 安装Dify社区版
A.2.3 将DeepSeek接入Dify
A.3 开始搭建AI应用
A.3.1 DeepSeekAI聊天助手
A.3.2 集成知识库的DeepSeekAI聊天助手
A.3.3 DeepSeekAIChatflow/Workflow 应用
A.4 常见问题
A.4.1 Docker部署时的连接错误
A.4.2 如何修改Ollama的服务地址和端口号
附录B DeepSeek-R1在Dify的集成方案
B.1 三重集成方案
B.1.1 DeepSeek官方API接入
B.1.2 多家MaaS供应商集成
B.1.3 本地部署方案
B.2 结语
链接资源
前言
1.1 节
1.2 节
1.3 节
1.4 节
第2章
2.2 节
2.4 节
2.5 节
2.7 节
2.8 节
3.1 节
3.4 节
3.5 节
3.6 节
3.7 节
4.1 节
4.2 节
4.3 节
4.4 节
4.5 节
5.1 节
5.2 节
5.3 节
6.2 节
更新时间:2025-05-07 12:21:52