微信扫码
添加专属顾问
我要投稿
掌握上下文,把握用户需求,赢得AI时代竞争。 核心内容: 1. 大语言模型的核心问题:智能水平提升与上下文提供 2. 场景创新与工程优化,如何优雅地提供上下文 3. AI-Native产品的核心:场景创意与工程实现,获取用户需求上下文
自大语言模型出现以来,所有的从业者本质上都在解决两个问题:
场景创新、工程优化本质上都是在解决如何更优雅的给模型提供“上下文”的问题。
提示词只是“需求激活器”,模型被激活后能不能把活干漂亮,取决于你提供了什么背景信息给它。
没能用好 AI 的那些“普通人”,一方面是想不到可以用 AI(场景问题),更重要的另一方面是给 AI 下达指令的时候信息给的不全(工程问题)。
类似“为我写一个爆款文案”这样的指令,就是典型的上下文“0添加”式表达。
本质上,所有 AI-Native 产品,都在做下面这件事:
拼来拼去,争的都是是场景创意
和工程实现
。
想要提升这两个方面的竞争力,做好下面两件事就够了:
真正核心的,是你在某个场景下,如何拿到用户通过 AI 解决问题需求的「上下文」,并恰到好处的帮用户提供给 AI。
本周 Product Hount TOP1 的产品,是前网易副总裁创业开发的 AI Native 笔记工具 Remio
这笔记工具有一个很“刺激”的功能:安装了浏览器插件以后,你在浏览器上打开的所有网页,它都会默默帮你采集下来以后,同步到笔记 APP……
虽然很吓人,但是不失为一个非常好的用户上下文记录、同步和模型供给的方式。
前几天,被 OpenAI 投资过的团队 mem0AI 开源了一个叫 OpenMemory 的 MCP 服务,它的核心价值是实现多 AI 应用之间的记忆共享(通过 MCP)。
你在 Claude 客户端上发过的消息,会被总结后存下来。等你再去 Cursor 里下达指令时,AI 可以从之前 Claude 里存的“记忆”里提取出相关的内容,放在上下文里。
这个场景我在很早以前的一次直播里有提过:谁能帮用户收集信息,在他们没想起来的时候自动补齐到对话里,谁就能够得到用户。
OpenMemory 并没有要用户的“上下文”,而是选择了存在用户本地。
但对更广泛的大众来说,方便比隐私更重要,毕竟不是所有人都会且愿意自己部署这么一套东西。
大模型的技术特征决定了「上下文」补齐是用好 AI 的必选项:更全面、完善的输入 = 更优质、更符合意图的输出。
只要大模型的这个技术特征不变,你接下来做的所有事情,归根到底都是更无感丝滑、稳定准确的帮用户补齐上下文。
认清楚了这个本质,很多创意的产品化,就变得很简单了。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-10-27
2024-09-04
2024-05-05
2024-07-18
2024-06-20
2024-06-13
2024-07-09
2024-07-09
2024-05-19
2024-07-07
2025-05-23
2025-05-16
2025-05-15
2025-05-14
2025-05-14
2025-05-13
2025-05-11
2025-05-08