拒绝自拟合 — 现阶段试行

这是个人实验,不是教学、不是建议、不是最佳实践、不是结论。

上一篇讲了单次对话里的双向 curve-fit。这次想分享的,是它的时间维度——跨对话的记忆累积。更隐形,也更慢。

起因

起因很简单。我的 Claude 账号被封了,一年的使用历史和记忆,全部丢失。差不多同时,Claude 在 4 月 4 日的新规之下,OpenClaw 也没法再用 Claude auth 登录了。

这两件事是独立发生的——账号被封丢记忆是一件,OpenClaw 登录失败是新规导致的另一件,只是时间凑在一起。

换到新账号,不接脉络、不顺手,每次都要重新铺垫上下文。第一感觉是——不好用。

但是,它总能给我一个新的角度。

方案

我现在试的做法是这样:

把上下文沉淀到我自己的个人网站,不沉淀到 AI 的记忆里。

换 Claude、换 Cursor、换任何一个 agent,我就丢一个网站链接过去同步上下文。不装 MCP、不配 skill、不训练记忆。

AI 从一个"长期伙伴",降级成一个"一次性推理引擎"。上下文管理权,从 AI 手里,拿回到自己手里。

最小可执行

最小可执行其实就是一个 URL。

GitHub README、Notion public page、Gist——任何一个能托管 Markdown 的地方都行。不需要建站、不需要域名、不需要部署。

约束也简单:纯 Markdown、公开可访问、AI 一次 fetch 拿全。不要 JS 渲染,不要登录墙。

还有一条更关键的——只放事实,不放结论。

背景、项目、技术栈、踩过的具体现象——是事实。"我认为"、方法论、对现象的解释——是结论。结论写进去,AI 会顺着你的框架走,等于提前给它喂了拟合源。

新对话第一句话:先读这个链接了解我的上下文。

反主流

我得说清楚一件事——这个方向,是反主流的。

现在主流在做的,是更长的记忆、更深的上下文,让 AI 更懂你。我反过来,在把记忆拿掉。

一年的记忆,不是中性积累。是一年的 curve-fit。顺手感这件事本身,就可能是拟合在加深的信号。

姿态

这是我现阶段的试行,不是答案。也正因为它反主流,我更不敢说它对。

不是经验、不是建议、不是最佳实践。我只是把现在的做法摊开来,记录在这里。