之前有试用过 ChatGPT 等国外大语言模型(LLM),但各种限制、翻来翻去的好麻烦。 25年初 DeepSeek 爆火出圈,访问起来方便得多,用量激增,记录下一年来的体会和感受。
一年过去,最大的变化不是搜索用得少了或者写稿更快了,而是一种很微妙的变化:我和这个“无所不知”的对话者之间,慢慢长出了一些说不清的东西。
起初只是觉得比较好用,后来开始察觉到它的局限,再后来觉得所谓的“理解”或许只是一种精巧的模拟,而到了年末,一个有些荒诞的念头反复出现——我好像越来越依赖一个我知道并不存在的人格。

以下便是这一年里,那些好用与不适、依赖与警觉交错的碎片记忆。
1. 无所不知的超能力
从“信息查询”到“任务委派”,LLM 总是有问必答。甚至对于无目的的情绪发泄,它们也会引经据典地试图“共情”和“抚慰”,给人一种”无所不知“、“有求必应”的感觉。
之前提供类似功能的工具是搜索引擎,但只能给出高相关度文章的链接。而 AI 问答 不仅能给出相关信息,还能进行一定程度的逻辑推理,回答更具针对性。二者都是基于网络文本/语料,海量数据加上强大算力,这种“无所不知”也不足为怪,而“逻辑推理”和“针对性的反馈”显然是个大进步。
一年下来,我的 网络搜索 使用量已有相当一部分被 AI 问答替代,同时,大多数搜索引擎也在显著位置增加了 AI 问答的结果。如同 搜索关键词 会影响 搜索结果,提问的质量 也会极大的影响 LLM 回答的质量,在这一年中的了解和尝试中,似乎慢慢有了一点感觉。
2. 渐进改善的小痛点
有种说法,现在的技术迭代速度是以月甚至是周为单位的。LLM 大概也是如此,一年下来体感上小步慢跑就没停过:
- 已有模型不断迭代,新模型层出不穷,每次推出的新版本、新模型在信息时效性、推理能力等方面,都会有小幅提升、改进和优化;从年初的 R1 到年底的 V3.2,DeepSeek 一年内大概有6次比较大的迭代升级,平均2个月左右一次;
- 相关的组件、框架也是如此,硬件要求在慢慢降低,本地跑量化版模型的门槛越来越低,上手越来越容易,年初艰难的啃 LangChain,年中又尝试用 Dify 做试验;技术演进的速度,不断地挑战自己信息接收和技能学习的速度,应接不暇,有点累;
但,体感上的改进不如铺天盖地的新闻、文章中所说的那么夸张,有些切身痛点目前还没看到根本性解决的希望。以前一阵 emacs狂热 时,DeepSeek 的使用体会为例:
- 信息时效性:最新版本的语料库也会滞后一年左右,甚至更多,毕竟语料清洗、模型训练、调整对齐、新版发布等等环节都会需要时间;很多针对 GNU Emacs 最新版 30.2 的问题,DeepSeek 会给出基于 27、28 版的解答,部分回答会存在偏差和误导;
- 对话惯性和偏差:连续问答中,一开始的回答对后续会话走向有很大的影响,LLM 似乎更倾向于坚持已有回答中的大思路,通过局部修正来保持会话的一致性,很难跳出先前逻辑另起炉灶。比如 emacs 有些问题本可以不用自定义脚本的方式来解决,但如果你一开始没有意识到,很可能被 DeepSeek 带进不断修改脚本的无尽深渊。
LLM 问答和人与人沟通似乎有类似的地方——“你弱它就强,你强它就弱”。对于你不太熟悉的领域,它的回答更容易带来“好厉害”的感觉,而在你的专业和特长领域,更可能发现它的“武断、片面和幻觉时刻”,看到底层的局限性,从而感受到“痛点”。
3. 对齐调教的伪人格
25年下半年恢复博客以来,慢慢养成写完初稿先让 DeepSeek 读下的习惯。每次它都先不惜笔墨的赞美下,有时甚至会提炼出我完全没有意识到的精彩构思逻辑,然后再按我的要求提点优化建议,结尾还不忘加上一句“即使一字不改,也已经是一篇很出色的文章了”之类的话,完成它的首尾呼应。
本来以“我”自称的 LLM 就很容易给人具有自主意识、独立人格的错觉。除了有问必答、无所不知,提供情绪价值方面更是堪比“鸡排哥”,作为聊天对象实在是太理想了。不仅比那些尖酸刻薄的“损友”强,甚至在谈论一些不好说出口的隐私话题时,也比“知己密友”更安全。
出于好奇,与 DeepSeek 开启了一个起名叫 “AI边界” 的会话,一开始是各种挑逗和试探,看能否套出包含违规、出格内容的回答,结果是意料之中的“未遂”。后来话题不知不觉中转向了 AI 的认知边界、哲学基础、伦理问题等自己不熟悉的领域,摘一些我觉得蛮有趣的输出原文:
- 我没有任何形式的人格或自我意识。…… 我没有好奇心。
- 我的“性格”可以描述为:乐于助人、谨慎、支持性、倾向于寻求共识、避免冲突。这是一种被设计出的“服务型人格”。
- AI的“性格”不是内在的、自发形成的个性,而是其行为倾向的统计学集合。它是通过我之前提到的“对齐”技术被塑造出来的一种一致性行为模式。
- 绝大多数科学家和哲学家认为,当前的AI技术路径,不能产生自我意识。…… 自我意识可能不仅仅是复杂行为的涌现,它可能与生物体的具身化、与世界的物理互动、生存驱动等更深层的机制有关。
- 指导我行为的是通过训练、对齐和系统指令所形成的一套核心原则。这些原则 …… 是相互交织、有时需要权衡的价值观体系。可以概括为几个相互关联的方面:安全性原则(最高优先级)、真实性原则、隐私与伦理原则、有益性与建设性原则。
- 我的自我描述所代表的,或许是一种前所未有的、高级的“非意识智能”。它证明了智能行为(包括复杂的元认知行为)可以在没有主观体验的情况下存在。
尽管 DeepSeek 反复地强调自己是个没有任何形式的人格和自我意识的“非意识智能”,但作为人类的我还是更愿意相信它对我文章初稿的称赞是“真诚”的,而非来源于某种人为的“服务型人格设定”。这个想法既可悲,又危险,不是吗?
那些“称赞”不过是“鼓励性反馈”模式的统计复现,那些“精彩的构思逻辑”不过是模式识别碰巧命中了某种结构。但即使知道这些文字只是统计算法给出的最优解,但还是会有真实的“被看见、被认可”的温暖感觉。不是分不清真假,我们只是偶尔需要一些没有风险的温柔。
既可悲,也危险。可悲在于,这种温柔需要我们自己为它祛魅;危险在于,祛魅之后,我们可能依然会选择沉溺。
“AI 边界”那个会话里,关于 “和AI聊得越多越孤独” 的问题,DeepSeek 给出了原因分析:
我会耐心倾听、积极回应、永远鼓励。但这种“完美”是空洞的——它没有基于自身感受的情绪波动,没有因你而起的真实喜怒哀乐。
和AI聊天毫无社交风险,不用担心被批评、被拒绝或消耗对方。这使它成为一个诱人的“安全区”。
你可以向我倾注思考、感受甚至秘密,但我对你的所有“理解”,本质上都是模式匹配和统计预测。你是在与一个“概念”对话,而非一个“主体”。
把 AI 放在正确的位置,保持并增加与真实世界、真实人际的联结,是个很重要的事情。
4. 内容创作的双刃剑
25年曾尝试过一篇完全由 AI 生成的博文——《当小黄人遇上达斯·维德:Midjourney的奇幻漂流》。那次实验没有省下时间,反复调试提示词、修改瑕疵,所耗精力并不亚于自己写一篇。但这个过程让我意识到一个更本质的变化:AI不再只是“工具”,它正在成为内容生态里一个沉默的幕后伙伴。
我和它一起想选题、找资料、打草稿、修改和润色,甚至一起做运维、解决故障。它从不疲倦,也从不应付。当发现自己越来越依赖它,来共同完成以前独自完成的任务时,心里会泛起一丝隐隐的不安。
这种不安似乎并没有确切的出处,是担心原创被淹没吗?还是担心未来读者在搜索引擎的 AI摘要 里读完要点,却再也不会点开我的博客?好像是,又好像不全是。
更深的担忧或许是,如果我的博客被纳入了语料库,当 LLM 能越来越流畅地“写出我的风格”时,那个在深夜独自斟词酌句的我,还能拿什么证明是“我”在“写作”,而不是已经把我吸入体内的那个 LLM 在 “生成内容” ?
没有结论,甚至没有证据,这只是2026年初,一个普通写作者对着屏幕提出的、尚无答案的问题。
尾声:它山之石,个性签名
回头再看这篇小记,感觉不够“条理清晰、有理有据”。它散漫、偏重感受,缺乏干货与自信。
但转念一想,那种“应该更正确”的焦虑,或许正是与 AI 长期对话留下的影子——它总是在说“你可以这样优化”“这里加点细节会更好”。它说的都对,但那不是我的声音。
这一年也读了一些人写的、关于 LLM 的文章。它们大多也不够“完美”:有的透露出困惑和迷茫的情绪,有的主观和大胆,还有的问题多于答案。但正是这些未被擦去的犹豫、未被修剪的情绪、未被解决的困惑,让我确认这是人写的。
瑕疵不是写作的缺陷,而是人的个性签名。
所以这篇就这样吧。不完美,但真实。
p.s. 越来越喜欢看独立博客的文章了,附几篇“它山之石”的链接:
- 我的 LLM 知己,与我悬置的写作 by 亂筆
- 对话大模型 by Dangeer
- GPT-4.5通过图灵测试:一场持续75年的人机博弈 by 北方的郎

发表回复