ChatGPT写了147遍都是废话,直到我吐槽了它一句
日期:2025-11-15 21:08:36 / 人气:13

在与AI协作的过程中,很多人都有过类似的糟糕经历:半夜苦战,在各个AI平台辗转,却难以让AI写出理想的邮件。一位开发者尝试用ChatGPT写销售邮件,改了147次都失败,直到一句吐槽催生了“Lyra”元提示,这一事件也折射出AI协作中存在的问题以及新的发展趋势。
一、147次失败与Lyra的诞生
(一)失败的尝试
一位开发者想用ChatGPT写一封不那么“机器人腔”的销售邮件,连改带问尝试了147次,每次输出的内容都死板空洞,不像人写的。这反映出在常规的提示词方式下,让AI完成看似简单的任务并非易事。
(二)Lyra的出现
在第147次尝试时,开发者崩溃地吐槽让AI问自己需要什么,这句吐槽成为灵感火花。他用72小时开发出“Lyra”元提示,相当于给ChatGPT换了个人设,让其在回答请求前先反过来采访用户,拿到关键信息再动笔。使用Lyra后,ChatGPT会追问产品、目标客户、痛点等关键细节,然后根据回答写出贴合需求的邮件。该帖子在Reddit上迅速爆火,收获近万点赞和上千评论,但也有人吐槽折腾147次不如自己写邮件快。
二、AI协作新路线:context engineering
(一)Lyra背后的趋势
Lyra的诞生反映了提示词技术演进的新思路,体现了AI社区兴起的context engineering趋势。context engineering是一种编程与系统设计的活动,被视为AI系统设计中的“下一代基础能力”。它是在AI应用场景中搭建背景、工具、记忆、文档检索等全流程体系,让模型在可靠上下文支持下执行任务。
(二)context engineering的构成
• 记忆结构:包括chat history、用户偏好、工具使用历史。
• 向量数据库或知识库检索:在生成之前检索相关文档。
• 工具调用指令schema:如数据库访问、执行代码、外部API格式说明。
• 系统提示/system prompt:给AI设置的角色、边界、输出格式规则。
• 上下文压缩与摘要策略:长期对话内容压缩管理,保证模型高效访问。
可以将其理解为在已有丰富信息(如历史、主题文件、用户偏好等)的环境中操作提示词,prompt是“指令”,context是“指令背后的材料与背景”。虽然context engineering借鉴了prompt engineering的理念和技巧,但更适用于实际生产,能做到版本控制、追踪错误、模块复用等效果,它将关注点从prompt的微调转向信息流通与系统优化的技艺,为构建复杂AI系统提供规范化系统框架,能有效提升模型表现。
三、对普通用户的启示
(一)传统Prompt方法的局限
传统Prompt方法常常失败,原因在于很多人用AI像用搜索引擎,几句指令就想得到满分答案。大模型生成内容依赖理解上下文和模式匹配,若提示含糊、信息匮乏,模型只能硬猜,产出千篇一律的套话或答非所问。这可能是prompt写得模糊、需求不清晰,也可能是prompt所处环境不够结构化,模型抓不到重点或回答跑题。
(二)借鉴context engineering思路
普通用户在写prompt时,虽然无法展开context engineering,但可以借鉴其思路。如Reddit社群ChatGPTPromptGenius的“Synergy Prompt”,提出三个核心构件:元框架Metaframe(为对话添加特定视角或焦点,是AI的“基础认知模块”)、具体信息Frames(上下文模块中的具体内容)、对话地图Chatmap(记录整个对话的动态轨迹,捕捉每次互动和语境选择)。通过不断整合碎片化信息形成模块和图谱,当AI掌握完整语境结构时,就能精准调取信息,给出精确回应,这与context engineering的目标相契合。
作者:风暴注册登录官网
新闻资讯 News
- ChatGPT写了147遍都是废话,...11-15
- 若特朗普“对等关税”被推翻,市...11-15
- 老龄化的日本:老人过寿的那些习...11-15
- 字节与阅文的短剧之争:行业内卷...11-15

