prompt · 2025年2月8日 0

Prompt笔记-2. 大语言模型工作原理:AI脑中的水晶球与图书馆

▍当你输入Prompt时,AI到底在做什么?

想象你正走进一座由所有人类书籍建成的超级图书馆,每个书架都在自动重组。大语言模型(LLM)就像个戴着魔法眼镜的图书管理员,它的工作不是「知道」知识,而是根据你的提问,在书海中捕捉最可能相关的词句轨迹。

真实类比实验
输入”为什么天空是蓝色的?”
AI的思考路径:
1️⃣ 拆解成token:[为什么][天空][是][蓝色][的][?]
2️⃣ 每个token激活相关书页(瑞利散射→儿童科普→诗歌比喻)
3️⃣ 用注意力机制给”散射”页面加荧光标记
4️⃣ 按概率编织最符合人类习惯的答案组合

▍三个核心魔法解析

① 预训练:吃下整个互联网的饕餮

  • 过程像让AI生吞整座图书馆,但不是记住每本书,而是学会:
  • 词与词之间的「引力强度」(”咖啡”常靠近”提神”,远离”恐龙”)
  • 故事发展的「可能性路径」(”皇后看着魔镜说”后面接”谁是世上最美的人”概率最高)

② 注意力机制:AI的彩虹高光笔

  • 当看到Prompt时,AI会给不同词语打上「注意力光斑」:
# 伪代码示例(非真实运算)
def 处理Prompt("请用《西游记》风格写奶茶评测"):
    打光强度 = {
        "西游记": 0.9,   # 核心风格锚点
        "奶茶": 0.7,    # 内容主体
        "评测": 0.6,    # 文本类型
        "请": 0.1       # 礼貌词可弱化
    }

③ 生成过程:抛文字骰子的艺术

  • 每个字的诞生都是概率游戏:
  • 温度=0.2:稳妥选择(”猫→抓→老鼠”)
  • 温度=1.0:疯狂冒险(”猫→驾驶→宇宙飞船”)
  • 建议新手尝试用「温度阶梯法」:
    先0.3生成事实性内容,再调至0.7润色创意段落

▍Prompt工程师必备的模型冷知识

知识幻觉的真相

  • AI并没有「理解」天空为什么蓝,只是计算出「瑞利散射」这个词在类似问题中出现概率高达87%
  • 破解法:在Prompt中植入「如果不确定请用比喻说明」

上下文窗口的秘密

  • 模型短期记忆就像便签纸:
  • GPT-4的便签纸约16开(32k tokens)
  • Claude3的便签纸堪比报纸全版(200k tokens)
  • 黄金法则:关键指令要在前300token内出现

Token化的陷阱

  • 中文分词玄学:
  • “深度学习”可能被切成[深度][学习](丢失专业语义)
  • 破解:用下划线强制绑定”deep_learning”

▍用厨师思维理解模型

假设AI是拥有全宇宙食谱的厨师:

  1. 你的Prompt是点餐要求
  2. 食材库=训练数据
  3. 炒菜动作=前向传播计算
  4. 摆盘方式=解码策略

经典翻车案例
要求:”写首李白风格的诗”
AI行为:随机抓取「李白」「诗」「酒」「月」等高频词搅拌
优化Prompt:
“模仿《将进酒》的:

  • 三字顿节奏(君不见/黄河之水/天上来)
  • 数字夸张手法(会须一饮三百杯)
  • 今昔对比结构
    主题改为程序员加班”

▍模型工作原理对Prompt设计的启示

  1. 启动记忆宫殿:用「请回忆…」激活相关语料
    → “请回忆OpenAI的官方文档建议,回答…”
  2. 注意力引导:用【重点】符号标记关键信息
  3. 概率矫正:预设选项降低随机性
    → “在以下三类解决方案中选择最稳妥的…”
  4. 对抗幻觉:要求标注置信度
    → “对每个医学建议标注可信度星级(★~★★★★★)”