记一次 Codex 融入正式工作流

在 Vibe 了几个小工具之后,在本周我正式让 Codex 在安全的情况下介入了研究工作。

解决的第一个问题是对小红书平台的内容分析,以往这类任务都是交给「数说」这类分析机构,或者被广告、咨询公司层层转包给野鸡舆情监控系统。

现在我用了「最拟人」的方法来完成,核心思路是:

  • 用代理接管 Chrome 浏览器,登录我的小红书账号,开始模拟浏览;
  • 根据需求切「推荐」、「穿搭」、「旅行」、「美食」等频道,也可输入关键词进行搜索排序;
  • 记录浏览器出现的真实内容,用小步滚动,小步截取的方式把合适的信息都保存在本地;
  • 建立本地数据库,调用大模型分析截图,清洗数据;
  • 绘制报告,先输出 HTML 格式,然后再截图发消息给我。

这样实现了基本的自动化,然后我改进这些脚本,套上 CLI 和 TUI 的皮,就能脱离 OpenClaw 来运作了。

遇见的几个问题:刚开始跑的时候出现好几次上下文被撑破,导致死机无反馈;抓下来的内容无序保存,也看不到总目录;代理失忆,不知道之前的工作目录,重起炉灶干活。

好在经过两天的调试就完全跑顺了。而到现在,我甚至可以脱离 OpenClaw ,只用 QQ 桥接消息的方式来控制这个信息程序。

脑海中的画面浮现出《社交网络》里好几个场景,再一次感叹「机械降神」的威力!