AI 核心概念速览
🔥LLM(Large Language Model)
LLM 即「大语言模型」,是一种基于深度学习的自然语言处理技术。
它通过海量文本语料进行预训练,掌握语言规律与知识,从而具备理解与生成自然语言的能力。
你可以把它想象成一位博览群书、过目不忘的“超级学生”——但这位学生目前只能“阅读文字”。
注意:LLM 本身只处理文本。多模态 AI 助手中的语音识别、图像理解等能力,是 LLM 与音频/视觉模型协同工作的结果。
举例:你上传一张猫咪照片并问“它在做什么?”
系统先用视觉模型提取“橘猫、窗台、阳光、伸爪”等关键信息,再将这些特征转成文本描述,最终由 LLM 润色输出:“这只橘猫正慵懒地躺在洒满阳光的窗台上伸爪打哈欠。”
🌈Agent(智能体)
Agent 原意为“代理”。与“你问一句它答一句”的聊天机器人不同,Agent 更像一位具备行动力的同事:
你给它一个目标,它会自主拆解任务、调用工具、做出决策,直至完成使命。
- LLM 是“大脑”——负责理解与规划;
- Agent 是“大脑 + 四肢”——不仅能思考,还能动手。
当下常见的 AI 助手大多是“半 Agent”:它们能帮你查航班、列选项,却未必能直接替你下单付款。未来,这些助手将逐步进化为真正的全功能 Agent。
🌈Prompt(提示词)
Prompt 的字面意思是“提示”,在 AI 语境下指引导 LLM 理解任务的方式。 文末附Prompt精选大全。 你可以细分为 User Prompt 与 System Prompt。
User Prompt vs. System Prompt
自 2023 年 GPT-3 发布以来,主流交互形式仍是“对话”。
- User Prompt:你在对话框里输入的任何问题或陈述,例如“如何用 Excel 做透视表?”
- System Prompt:由系统提前写好的“人设脚本”,包含背景、语气、角色、约束等。
当你选择“法律顾问”或“Excel 专家”等预设角色时,后台其实加载了一段 System Prompt,省去你每次手动描述的麻烦。
为什么 Prompt 如此重要?
同样的句子,不同人会给出截然不同的回应——
- 对父母说“我有点头疼”,他们会问“吃药了吗?要不要去医院?”
- 对领导说,领导可能回“需要请假休息吗?”
- 对损友,他可能回“恭喜恭喜”并配个沙雕表情包。
AI 面向所有用户,必须给出“通用”回答。若想让它扮演特定角色,就得用 Prompt 事先“设定语境”。
Prompt 的质量,往往直接决定输出的质量。
🔥MCP(Model Context Protocol)与 Function Calling
Function Calling 简述
大模型本身无法直接访问实时外部数据。
例如,在不开启联网搜索的情况下,你问 DeepSeek “杭州明天天气如何?” 它甚至不知道“明天”是几号。
开启联网后,模型会调用内部封装的“天气查询函数”(Function Calling),访问外部 API 获取数据,再生成最终回复。
MCP:AI 的 “USB-C 接口”
Function Calling 的实现方式各家不同,导致重复造轮子。
MCP(Model Context Protocol)为此而生:它是一套开放协议,定义了 AI 与外部世界交互的标准接口。
- 开发者可以按 MCP 规范编写插件(如天气查询、股票行情、数据库检索)。
- 任何兼容 MCP 的 AI 助手都能直接调用这些插件,无需重复对接。
一句话总结:MCP 让“工具”像 USB-C 设备一样,即插即用,跨平台共享。现在每个ai助手都有联网搜索功能,但是每个ai助手的联网搜索功能的实现方式可能都不一样,有没有办法统一实现呢? MCP就是做这个的,你可以自己开发一个「插件」,可以查询实时天气(可能只是调用外部的api),但是要符合MCP的规范。 别的ai助手支持MCP的话,ai助手内部识别到要查询天气的时候就可以调用你开发的「插件」去查询天气。多个ai助手共用这个一个 「插件」就可以了。
MCP比如想象的更强大
MCP 不仅能查询天气、股票这类在线数据,甚至还能直接操作本地文件与软件。只要按协议开发插件,就能让 AI 帮你“动鼠标、敲键盘”。
🌰
- 你对 AI 说:“把本周的销售 Excel 汇总成图表并发邮件给老板。”
- AI 通过 MCP 调用本地插件:
• 读取~/Documents/sales.xlsx
中的最新数据;
• 生成柱状图并保存为 PNG;
• 打开邮件客户端,自动填写收件人、主题、正文,并附上图片;
• 你只需点“发送”即可。