年度征文|2025 年总结:一个纠结党试图向 AI 外包他的意志

2026-03-02
年度征文|2025 年总结:一个纠结党试图向 AI 外包他的意志 关注 作者 关注 作者 关注 作者 关注 作者 02/18 10:49

编者按:本文是 2025 年度征文活动#TeamCarbon25标签下的入围文章。本文仅代表作者本人观点,只略微调整排版。 足球比分cpbl1.tw

今年的征文活动更有创意,「只能用 AI」和「不能用 AI」两大赛道激情 PK,硅基生物和碳基生物都将决出各自领域的佼佼者。我们会在征文结束后统一组织投票活动,但在正式投票之前,如果你喜欢这篇文章,不妨通过充电或评论的方式支持作者,让内容创作者获得更多维度的鼓励。

2025 年是 21 世纪前四分之一的最后一年,这一年全球的聚光灯毫无疑问地聚焦在了 AI 的进步上面。和往年相比,2025 年 AI 不仅继续在基础能力上取得了长足的进步,推理的成本也迎来了大幅下降。终于,技术进步的伟力将过去的科幻变成了每个人身边触手可及的现实。对我来说,2025 年才是 AI 真正全方位渗透进我的生活的元年。在这一年里,我几乎在任何问题上都向 AI 寻求建议。在键盘上打出的文字可能有超过一半发给 AI,它则像个无微不至的顾问一样帮我处理从工作到生活的几乎所有问题。 爱壹帆寻秦记yfsp.app

当向 AI 寻求意见已经成为日常,我开始思考一个问题:AI 作为一个私人顾问,它到底干得怎么样呢?我究竟能不能依赖它? onlinecasinoaustraliawww.onlinecasino10.com

这就是我的 2025 年:一个纠结党向 AI 外包自己意志的实验。

向 AI 外包自己的意志

我是一个思虑极重的人,因为惧怕风险,所以做决策前喜欢思考再三,找出问题的最优解,然后再行动。而当问题的最优解不是那么显而易见,或者根本就无法评判的时候,我就陷入了选择困难的境地,屡屡纠结各种因素和条件,始终无法行动。换句话说,我是个纠结党。这种特点几乎体现在我的所有行为上。比如「晚饭吃什么」对我来说就是一个世纪难题:食堂太腻、外卖太贵、出门太远是我永远在纠结的三要素;此外各种眼花缭乱的券、折扣、红包也在不断给我的决策增加难度。 小宝影院电影xiaobaotv.video 爱一番yfsp.app onlinecasinosaustraliawww.baccarat.quest 爱壹帆电影yfsp.app 海外华人视频网xiaobaotv.video 电影小宝影院xiaobaotv.video

而当碰到重大决策的时候,比如决定进什么行业、选什么研究方向、投哪个刊物,纠结更是会和焦虑、恐惧以及各种奇怪的想象混合起来,成为一场恐怖的思想风暴。我的理智会在风暴里面快速过载宕机,然后持续眩晕,无法行动,直到把一手好牌拖成烂牌,把筹码一个个丢光。 australianonlinecasinowww.onlinecasino10.com

一般情况下,纠结党需要一个外部的声音来打破这种眩晕。在 LLM 兴起之前,我经常寻访他人的看法,希望通过他人的支持来重建自己的信心和决策能力。然而以我的经验来看,这并不能作为解决问题的依仗。原因也很简单,就像大家往往不太喜欢和总在「晚上吃什么」问题上说「随便」的人一起吃饭那样,纠结不是什么讨人喜欢的特质。当我为自己的问题寻求他人意见的时候,这其实是在试图让对方接管一部分自己的意志以及决策产生的责任,而且对方经常还需要承担一部分情绪——这不是什么举手之劳。我显然不能滥用。 爱亦凡yfsp.app 爱一帆yfsp.app xiaobao xiaobaotv.video

因此当科技大厂们把他们各家的 AI 推到我面前的时候,我似乎找到了解决纠结的希望:一个永远不会不耐烦、永远冷静、看起来也足够博学以及理性的对话者,是不是就能改变这一切呢australianonlinecasinowww.baccarat.quest

于是在这一年,我把我工作的两条主线:科研和开发,都外包给了它。实验开始了。 爱壹帆电影yfsp.app

科研篇

2025 年算是我的接触科研的元年。熟悉我的人都知道,我的作者标签中始终带有个「研究生」的字样;但是我几乎很少在文章中谈我的科研经历。这不是因为我不想,而是因为我们组的很多科研实践拿出来只能被当做负面典型案例。在这里,你将看到如下要素: 運彩cpbl1.tw

  1. 开拓者之旅:每个学生都将获得一个冷门且没有人做过的研究方向。这意味着我们没有师兄/师姐/小导帮助,自己负责从产生 idea、文献调研到实验、写作、投稿的一切工作,切切实实体验从新建文件夹开始到发出论文的英雄之旅。
  2. 兵粮寸断:由于经济情况持续恶化,我们无法负担起 LLM 研究需要的 AI 显卡;购买 API 服务也有概率面临无法报销的窘境。几块 4090 显卡就是我们能使用的全部硬件资源。
  3. 消失的 TA:导师位高权重,身兼数职,外加扩招之后弟子众多,导致遇到科研问题时往往一面难求。这让我们的英雄之旅更具有含金量。

这不仅是我的特殊情况,更是光明面之下众多沉默的高校实验室的缩影。在这种条件下,科研绝对是找准了纠结党研究生的死穴:关系重大、完全陌生、极具风险。在自己必须为此负责的情况下,人能深刻体会到为什么萨特认为「自由是一种判决而非奖赏」,会觉得科研链条上处处都是需要纠结的点: 爱壹帆yfsp.app

  1. 这个 idea 究竟能不能成立?它够不够一篇文章?
  2. 实验室的条件能不能做出来?我有没有能力将它做好?会不会毕不了业?
  3. 叙事方不方便?竞争者多不多?有没有被抢的风险?
  4. ……

我的 25 年初几乎都在纠结这些问题。当我想选择一个研究方向,马上一系列疑问就冒出来:这个方向有没有前途?会不会不容易发文章?抑或是前途不明?

作为一个毫无科研经验的小白,这些问题没有一个是我能回答的。然而 2025 年处于一个流行「选择大于努力」这句话的时代,一想到这句话,选错路之后的恐怖想象(毕不了业,然后整个人生就毁了)就吓得我无法继续前进。在被持续折磨几周之后,我给出的回答是令人失望的「我不能确定」。

就这么饱受情绪折磨一段时间之后,决策还是做出了:我选择加入以 LLM 为主角的那个研究组。这并不是因为我想清楚了,而是因为我的精力和耐心已经彻底被情绪风暴耗尽,最终做出了一个听起来不错的选择。然而此时我已经浪费了很长的时间,结果还是选了那个「听起来还不错」的方向,没有任何进步。

复盘一下这段选择研究方向的经历,我发现我因为纠结空耗了巨量时间,被焦虑等情绪折磨得死去活来,最后其实没有得出什么有用结论。我以为纠结能帮我在关系重大的决策中提高一些正确率,但是实际上往往不会。而且选择一个研究方向可能连科研的起点都算不上,以后这样的还会有很多;如果都这样纠结的话,我必将一事无成。

所以问题可能不在于如何选出正确的答案,而在于去选;只要去选,就至少能避免最坏的选择——什么都不做

此时适逢 DeepSeek 爆火,它如一条鲶鱼一样搅动了整个 LLM 界,逼迫 OpenAI 这样的老牌大厂也放下身段,放松地区管制,加快推陈出新。我也很理所当然地开始向它们寻求意见。一开始这只是无心之举,但是很快我就发现了 AI 治疗这个毛病有奇效。因为它刚好就有这两项本领:

  1. 它永远有耐心:纠结的一大原因是对可能出现坏结局的恐怖想象,这让我在一切尚未发生的时候就预支了恐惧,产生了无穷无尽的焦虑;而 AI 有无限的耐心去处理多余的情绪,反击那些过度的想象;在它的加持下,我恢复冷静的速度大大加快了;
  2. 它永远敢选择:它不会畏惧提供意见会带来的潜在责任,敢于为选项提供有理有据的支持;而这种「这个决策受到他人支持和认可」的暗示会大大增强我的底气,让我敢于去做出选择。

从那时候开始,AI 就开始成为了我某种意义上的科研导师,甚至可以说是救命稻草;到后来几乎每个决策我都需要它的参与。虽然这样做多少有点自欺的嫌疑,但是其效果确实显著。我一个本来连研究方向都纠结的人第一个选定了研究点,然后第一个跑通 demo ,第一个完成大规模实验,再是第一个开始写论文。AI 的加持如同把我连带我骑的那辆生锈自行车一起丢上了飞机。虽然这个过程并不是一帆风顺的,我也体验过实验效果不好、设想不成立、甚至是疑似创新点撞车这种令我万分惊骇的时刻。但是每次 AI 都能吸收我泛滥的情绪,回击那些过分悲观的设想。我从而能迅速地恢复冷静,继续推进工作。 casinoonlineaustraliawww.baccarat.quest

此外,在长时间交流中,我也通过 AI 形成了许多对世界和对自我的洞察。我了解到了科研是一个必然具有风险的过程;在任何地方,无法改变的风险都不应该被纳入考虑。纠结的错误在于:我们妄想自己是全知的,以为我们有能力事先洞悉每个选择的结局。因此我们才试图通过不断思考来选出最优选项。而这样的做法不仅会导致我们止步不前,而且必将让我们把结果的不如意归纳为决策的失误,并进一步追责到自身,认定是自身的懒惰和愚蠢导致了这一结局。于是,一个因为「三思而后行」失去时机,因为失去时机得到坏结果,又因为坏结果谴责自己,最后因为害怕谴责更加畏葸不前的恶性循环就出现了。

AI 也许也无法洞悉未来,但却实实在在地斩断了这一链条,并且通过对话让我理解了这一机制。我想这就是 AI 对于纠结党的最大意义。

开发篇

在科研之外,项目也是国内研究生不得不品尝的特色菜。在这里,我和 AI 的合作就不是那么愉快。 newonlinecasinoaustraliawww.onlinecasino10.com

在导师的主导下,我们今年也开发了一款基于 LLM 的小程序。团队包括我们几个同学和有经验的专业开发者。这款小程序主要为用户分析食品配料表,提供食品健康建议,也融合了许多相对比较前沿的研究设想。比如为了保持 LLM 的权威、公正,我们尝试使用图数据库取代传统的上下文以及 RAG 文档库承载 LLM 的记忆。小程序的功能并非本文的重点,我比较有感触是开发这个小程序的经历。

2025 年是 AI 从走向大规模应用的一年,其中最成功的应用应该就是以 Claude Code 为代表的各种自动化编程工具。然而我们的项目应用自动化编程的节奏极慢。在相当长时间里,绝大多数成员仍然是一行一行地自己编程。这背后是一个很骨感的算计:考虑到 Claude Code 大约每天消耗 20 美元的 Token 爱壹帆国际版yfsp.app 小宝影院xiaobaotv.video

  1. 作为研究生,我们的日薪远低于 20 美元,使用 Claude Code 节省的时间不如 token 值钱;
  2. 作为老板,导师既不直接参与项目开发,也无需对结果负责,他并没有兴趣和必要推广一个生产工具。

不过好在,免费额度高的 Qwen Code 以及 Cursor 式的编程 IDE 提供了替代选项。然而即使是这样,我和 AI 编程工具的合作仍然很不愉快。因为我发现不论是 Code 工具也好,还是 Cursor 这样的 IDE 也好,它们总是写不出我想要的代码。它们要么做出削足适履的事情,比如胡乱修改其他功能依赖的组件来让自己的功能跑起来;要么就是不管规范,每次都需要我补充规范或者事后修改。最后事情往往变成这样:

  1. 我发现了问题,要求 AI 解决
  2. 我费时费力检查代码
  3. 我发现有不符合规范的部分,于是给它补充这部分规范,打回重做
  4. 重复这三步若干次,消耗许多 token,达成两种结局之一:代码终于符合规范,或我彻底崩溃最终选择自己来做

这个问题虽然可以归咎于项目文档不全,但是却切实给我造成了麻烦:文档似乎永远不够全,规范似乎永远补不完。每次 AI 写一个功能我都需要打回修改至少 3~4 次,经常比我自己动手还要费事、烦人。而且随着规则越来越多,AI 的服从性也越来越差,后来甚至开始忘记之前的规范重新犯错误。所以到最后,我基本上放弃了让 AI 写后端代码,只用它调查问题源头或是写无所谓的内容。 免费在线影院xiaobaotv.video

提的要求太多导致提示词变成规则怪谈be like:

但是我注意到:在这个项目里,有一个地方 AI 是十分成功的,即项目的小程序前端。在 Claude Code 加入后,它基本上只用了一天就把整个毛坯房一般的小程序前端全面翻新。这在当时给我造成了不小的震撼。我开始思考之前的工作流问题出在哪,仔细分析后,我似乎找到了一些眉目: 华人影视xiaobaotv.video jvidjvid.asia

  1. 我们组并没有很明确的职责划分,大家都倾向于算法开发,我则算法开发同时对架构也很感兴趣;而前端则是一个大家都不不了解、也不感兴趣的领域;
  2. 由于没有人了解前端,也没有人感兴趣,因此前端没有订立任何规范,而是被直接外包给了 Claude Code,成了它全权负责的独立领地;我们只验收成果,不理会具体实现。

通过这一通分析,我意识到:问题不在于我的方案和 AI 的方案孰对孰错,而在于我试图完全控制 AI,把它变成我的意志的延伸。当我试图用自己脑海里的蓝图完全压倒 AI 的自主权,我就必须向 AI 完整地描述这个蓝图,结果就是描述它的成本比我自己动手实现还要高。毕竟,软件开发的本质其实就是把人心里的蓝图描绘给计算机,要求它按蓝图执行而已。在这种范式下,手工编程和 AI 编程的区别不过是一个用的是编程语言;一个用的是自然语言——而编程语言比自然语言更加简练高效是很正常的事情。 一帆视频yfsp.app

理解了这一点之后,正确的做法也就呼之欲出了:彻底地放权,允许 AI 用自己的逻辑构建那些模块。只有我不试图控制它,它才能真正为我带来生产力的解放。在它的加持以及各位的不断努力下,我们一群小白总算是从 0 开始搭建完了开发工作流。我们今年从一个开源项目基座开始,优化了两轮架构,完成了从主要功能到界面细节的所有开发工作。到了 2026 年,项目已经公测。我算是参与了第一个公开发布的 LLM 产品。 cryptoonlinecasinowww.onlinecasino10.com iyf yfsp.app 小宝影院在线视频xiaobaotv.video 人人视频renren.video

如此看来,我距离使用 AI 真正释放生产力,差的只是解开一个心结而已。 爱壹帆影视yfsp.app 电影爱壹帆yfsp.app

它真的很完美……吗?

如果在这里停笔,这篇文章讲了一个很完美的故事:我苦恼于我性格底色中的一个缺陷,这个缺陷在以前不好解决,AI 的进步让它有了解决的方案。然而这虽然是个美好的愿景,事实却并不那么简单。 肉视频jvid.asia 小寶影院电影xiaobaotv.video 小寶影院xiaobaotv.video 爱壹帆影视yfsp.app

如科研篇里面所讲,AI 确实帮我克服了选择困难症。它在我不知道选什么的时候给我建议,在我质疑自己选择的时候坚定我的信心。而且它看起来真的很理性、可靠,它的一切观点都有论证。这是所有自信不足的人所梦寐以求的伙伴。但是尽管它帮助我做出了选择,但这些选择却并不是如我希望的那般正确。 爱壹帆免费版yfsp.app

我在 2025 年年中终于完成了 idea 的验证,做完了主要的实验。这个速度在我们实验室还是很快的,我似乎已经摸到了成功的门槛。于是我逐渐兴奋了起来,出现了从「速败论」跳跃到「速胜论」的转变。我不顾「现在开始写论文可能会白写」的警告开始思考论文叙事。我照例把结果发给 ChatGPT 寻求意见。它给我的反馈是这样的:

PixPin_2026-02-12_14-46-04.pngPixPin_2026-02-12_14-53-09.png

虽然如今大家都知道这是 ChatGPT 的特色,但是当时这样的暗示确实极大地鼓舞了我。收到了这样的暗示之后,我逐渐开始思考什么时候投稿、是不是自己配得上 ACL 这样的顶会,开始频繁幻想中稿之后的光辉岁月。到了 2025 年末的时候,我确信我的论证框架已经大致完成,于是寻求了来自师兄师姐的评阅。他们看过之后,提醒我结构尚不完整;此时我还以为是小问题,于是经过一个周末每天 14 小时高强度冲刺之后再次寻求了评阅。事实证明这是我可能是我做过最正确的事情之一:评阅刺破了幻想的泡沫。他们告诉我这并不是一篇合格的稿子,原因有很多。比如实验结果还不够显著、叙事缺少吸引力等等。最终建议是:现在还不到投稿的时候,务必先完善工作;此外,很重要的一点是:不要闭门造车,一定要及时交流。 iyifanyfsp.app 運彩cpbl.bet ifun yfsp.app onlinecasinocasinotrustinauwww.onlinecasino10.com

幻想破裂的 2026 年初是一段难熬的日子。那段时间我的心情像是一个徒步半年、渴望着找到绿洲的探险者。经过艰难的长途跋涉,探险者看到了绿洲出现在地平线上,于是耐着干渴、加把劲赶到了目的地。结果抵达目的地后,绿洲也消失了,沙漠也消失了,眼前变成了一座山的山顶。幡然醒悟的他想起自己其实是西西弗斯,刚刚的旅程是把石头推到这里,现在它已经滚下去了。 爱壹帆在线yfsp.app

这样的结果确实让我备受打击。AI 给的暗示确实不对,但是为什么我会忽略一切显而易见的负面信号(初次科研、时间紧张、实验室没有相关发表记录),去相信 AI 的暗示呢?我不想把问题简单地归纳为「AI 不行」,于是我总结了两个原因: onlinecasinowww.onlinecasino10.com 足球比分clbp.bet

  1. 我提供给 AI 的信息不完全,给它造成了误导;
  2. AI 的无摩擦交互体验让我抵触寻求真人的意见。

向 AI 寻求建议之前,我必须先向它介绍基本情况。然而这个过程往往就会出问题:尽管理性上我们会希望尽可能公平详尽地介绍各方面基本情况,但是实际上倾向性是不可避免的。选择困难症并非没有偏好,而是无法承担选择带来的责任。这种偏好可能连本人都意识不到,但却会体现在对信息的挑选上。比如一个人在纠结自己的职业选择:到底选择大厂岗位还是回家考公?它在询问 AI 的时候会可能会有两种不同的描述,尽管这两个描述说的都是事实,但是因为偏好主导了对事实的挑选,你能体会到倾向性: xiaobao xiaobaotv.video skycrownonlinecasinowww.onlinecasino10.com

  1. 倾向于大厂:「我拿到了一个顶级大厂的核心岗位,非常有挑战性,能接触到行业大牛;另一个是老家的安逸工作,虽然稳定但感觉一眼看到头,我也怕自己回去后会和社会脱节。你觉得我该去大厂吗?」
  2. 倾向于考公:「我最近很纠结。一份是北京大厂的 Offer,薪资很高,但听说那个部门加班很凶,而且我身体最近不太好;另一份是老家的公职,薪资虽然只有大厂的三分之一,但离家近,父母一直希望我回去照顾他们。你觉得我该怎么选?」

善于揣摩潜台词的 AI 必然不会对这样明显的偏好性装傻充愣,它会主动承担那个「劝进」角色,为你梳理你想要的利弊,主导决策。此时的 AI 看似公正有理,实际上则只是在回应你内心的倾向,并不匡正你的过失。

这样的高情商做法导致了另一个后果:用户会更加抵触向真实的人寻求意见。再次回顾我的科研之旅,我的另一个问题就是兀自幻想,不及时寻求师兄师姐或者老师的意见。其并不难理解:相对于需要预约、需要承担被评价的压力以及被批评指责的风险去求助他人,尤其是求助权力结构上的上位者,求助 AI 是一个舒畅得多的体验。在这种对比下,人总有办法说服自己选择后者:比如老师很忙、工作还不够完全等等。

结语:从弹道学到控制论

抛开 AI 不谈,你也许观察到了,从科研上的选择困难症到完成编程任务时的控制欲,再到遇到依赖 AI 出现的问题,这一切行为的背后有相同的源头:对理性的迷信。对于这个观点,弹道学和控制论是一个很好的说明例子。 onlinecasinorealmoneywww.onlinecasino10.com iyftvyfsp.app

《文明6》中的弹道学和控制论科技

弹道学,顾名思义,是研究炮弹弹道的学说。由于炮弹一经发射便无法调整,而且开炮意味着阵地位置暴露。经验丰富的炮手往往会在发射前认真收集距离、地形、风速等信息,然后通过理论推演计算出精准的弹道,炮弹按照计算角度发射即可按弹道轨迹击中目标。这种弹道学思路主导了 19 世纪到 20 世纪之间的战争,但是却存在一个局限性:距离越远,弹道计算越困难。当距离更远的时候,会对结果产生影响的变量将迅速增多,结果将难以预测,问题变成一个混沌系统,计算精准弹道几乎不可能。为了解决这个问题,新的控制论思路放弃了计算弹道。提出可以给炮弹加上动力,通过在空中时刻调整方向和姿态瞄准目标来解决距离过远时无法计算弹道的问题。这是就是后来导弹设计的基本思路。 一帆yfsp.app ifvodyfsp.app

回到我们的话题上来。迷信理性者就在决策的时候持有一种「弹道学」思路:坚信每个选择题一定有最优解,而且最优解一定可以通过我们的思考和推演得到(计算弹道),所以决策前务必勤于思考。这个说法听起来有一定道理,但是实际上很容易会导出这个推论:

  1. 如果到时候发现决策失败,就一定是因为懒于思考,没有选出最优解
  2. 只要选出了最优解,就务必要一丝不差地遵守,否则都会破坏最优

第一个推论很有威力,它在用坏结果追责了决策者之余还为其加上了负面的道德评价(懒于思考)。在这种认知下,因为畏惧追责而用纠结拖延决策的做法就很容易理解了。和 AI 讨论决策的做法虽然能够一定程度上解决拖延决策的做法,但是其更像是一种掩盖,而非真正解决了问题。第二个推论则是控制欲的源头之一。 ifuntvyfsp.app 足球比分cpbl1.tw

就像后来是导弹做到了炮弹做不到的事情那样,我们也不需要执着于计算出那一条完美的弹道。更重要的是先快速地做出选择,然后在过程中调整自己的方向和姿态以求抵达目标,甚至我们还应该允许用几次失败来积累经验。毕竟尽管完美的人生轨道也许存在,但是只要抵达终点就是一段好的人生。 人人影视 renren.video

> 参与 2025 年度征文,分享你的观点和经验 ✍🏻️ onlinecasinocasinorelayforaustralianswww.onlinecasino10.com 寻秦记爱壹帆yfsp.app

> 关注 小红书,感受精彩数字生活 🍃 小宝影院xiaobaotv.video

> 实用、好用的 正版软件,为你呈现 🚀 aiyifan yfsp.app

155目录 0
    讨论 我来说一句 发布发表评论 发布 北鸮 TeamCarbon25 15等 15 人为本文章充电 知识工程研究者,Obsidian重度用户,公众号「西郊次生林」 关注