人工智能(AI)与大语言模型(LLM)基础
人工智能应用开发全景与学习方法
学习目标
- 理解人工智能应用不等于单次模型问答。
- 知道 V1 三条学习路线之间的递进关系。
- 能说出一个人工智能产品功能从输入到交付的主要模块。
核心概念
人工智能应用开发的中心不是“让模型说一段话”,而是把模型能力放进一个可控的产品链路里。典型链路包括用户输入、上下文准备、模型调用、输出解析、错误处理、结果展示、用户反馈和效果评测。
三条路线的关系也遵循这个顺序。第一条路线建立模型、提示词、结构化输出和评测的基础。第二条路线把单次调用扩展成工具调用和工作流。第三条路线把知识库、状态、监控、权限和成本接入产品化场景。
你可以把模型看成一个强大的语言推理组件,而不是完整应用。应用真正的稳定性来自边界设计:哪些内容由用户提供,哪些信息来自数据库,哪些动作必须由程序执行,哪些结果需要人工确认。
示例与拆解
假设你要做一个“课程答疑助手”。一个过于粗糙的版本只会这样调用模型:
1用户输入:我应该先学检索增强生成还是智能体? 2模型输出:你可以先学习检索增强生成,再学习智能体。
这个输出可能有帮助,但还不是产品能力。更完整的链路应该是:
1{ 2 "input": "我应该先学检索增强生成还是智能体?", 3 "context_sources": ["当前学习进度", "课程路线说明", "已完成章节"], 4 "model_task": "基于学习进度给出下一章建议", 5 "output": { 6 "recommendation": "先完成检索增强生成基础和文档切分,再进入智能体边界章节", 7 "reason": "你已经完成基础提示词,但还缺少知识库检索能力", 8 "next_action": "学习 rag-index-retrieval-context" 9 }, 10 "evaluation": "建议是否引用了真实进度,是否给出可执行下一步" 11}
这里真正的产品价值来自“结合上下文并给出可执行路径”,而不是一句泛泛建议。
常见误区
- 误区一:认为模型越强,产品就越稳定。强模型能提高上限,但输入、上下文和评测不清楚时仍会失败。
- 误区二:一开始就做复杂智能体。多数早期功能先用清晰工作流更容易调试。
- 误区三:只看回答是否像人话。人工智能应用更关心结果是否正确、可解析、可执行、可追踪。
小练习
选一个你熟悉的人工智能功能,比如简历优化、合同摘要或客服答疑。写出它的 5 个模块:用户输入、需要的上下文、模型任务、输出格式、验收标准。
实操检查点
把练习结果整理成一张 5 行表格,每行只写一个模块。验收时检查三件事:输入是否真实来自用户或系统,输出是否能被界面或程序消费,验收标准是否能用一句话判断通过或失败。
示例格式:
1模块:上下文准备 2来源:用户已完成章节、当前路线说明、项目交付要求 3失败风险:缺少真实进度时推荐错误章节 4验收标准:推荐必须引用一个真实章节 slug
随堂测验
完成本章测验,重点检查你是否能区分“模型回答”和“产品功能”。
本章总结
人工智能应用开发是一条产品链路。模型调用只是中间环节,稳定交付还需要上下文、结构化输出、状态、错误处理和评测。
下一步学习指引
下一章进入大语言模型(LLM)的基本工作方式,重点理解 Token、上下文窗口、生成边界和幻觉来源。