因为人工智能是2025年完全无法避开的话题,这篇文章就当作是我的年终总结吧。非常多的年终总结带有强烈的个人色彩,更多地是提供不一样的体验,以及体验背后呈现的情绪价值。本文旨在通过个人对技术和工作的思考,带来除情绪价值之外的,更具实际意义的生产价值。
11月中,我在我的微信公众号上发布了一篇完全由人工智能大模型生成的游戏社群调查报告,阐述了某服务型游戏在某段时间内的运营方法和社区反馈,集中探讨了在某个运营周期内发生的争议性事件。几天之后,一家知名的垂类严肃媒体联系到我,希望帮助他们解决人工智能在媒体写作中遇到的一些日常问题。
利用AI辅助写作早已不是什么新鲜事儿。不论是要发到小红书,还是要发到自己的博客上,大模型完全能做到“一键生成”。然而,专业、垂直,并带有纸媒经验的互联网新媒体,对人工智能大模型的要求则完全达到了另一个维度。
不论是公关、广告、市场营销、MCN还是媒体,基本上各个相关领域的企业都已经订阅了外部人工智能大模型的高级版本或者企业版本,要么是直接采用自研或本地部署的混合大模型,以提升员工的内容生产能力和效率。
然而,尽管人工智能大模型能够一键生成Web 1.0末期技术类博客风格的文字,但即便到了2025年底,这种文章仍旧达不到传统严肃媒体所追求的标准。除了不可避免的小标题和子弹列表容易割裂阅读流畅感外,大模型仍会多多少少带有一点能被读者觉察到的“AI味”。
这些人工智能大模型生成的,粗看下来大差不差,但深究细节却让人抓耳挠腮的文本,在很大程度上影响了将大模型融入严肃媒体的工作流中。
这便诞生了一个问题:面对人工智能大模型在严肃媒体写作上的种种问题,我们该怎么做?
本文尝试梳理一条逻辑,从大模型本身的特性理解AI的工作方法,从技术和应用层面,提供一种在写作时提高利用人工智能大模型效率的思路,以飨各位读者、作者和媒体老师们。
我相信这是非常多的人正在实践的方法论,只不过从我个人的视野,还没有将这种方法论整理成结构化、可视化的内容。即便这篇内容很可能属于“重复造轮子”,但我仍希望我的体验能够呈现一些不一样的新发现。
什么是严肃写作
严肃写作存在主观本质,那就是“负责任的写作”。涵盖多种类型,严肃写作可以是商业性写作、文学创作、非虚构的纪实文学、时政评论以及文学和学术批评。并且,随着世界文明的不断发展和多元生活方式的不断变迁,有理有据的高质量动漫评论和饮食评论也正在或者已经纳入了严肃写作的范畴。
我日常面对的写作需求,或者说,我们目前仍能够接触到的严肃文学,主要集中在商业性写作,和纪实文学这两类。这两类文字的核心诉求依然不会超出严肃文学的本质,但在具体细节上,仍有需要特别注意的地方。
商业性写作追求在最大化传递信息和洞见的同时保证精简和精确,这和大多数博客类创作者追求的东西几乎别无二致。但不同的是,商业写作非常关注数据和案例。商业写作的目标之一是说服受众,因此这些数据和案例是佐证文章的观点、洞见和趋势判断的重要依据。
在多数情况下,尤其是利用商业文章促成销售转化的场景中,商业写作非常看重“专业且通俗”,这就意味着必须要让没有行业背景知识的普通读者也能看懂。因此,目前包括刊登在《哈佛商业评论》的文章在内的绝大多数商业性文章,也都在极力避免使用繁琐、晦涩的商业专业词语和缩写。
商业写作同样追求情感共鸣以达成上述目的,但要注意“合乎周礼”。作者需要斟酌合适的措辞以调动读者情绪,避免泄露商业机密;可以用“网络梗”但要避免沦为“网络黑话”。这些都是人工智能大模型有概率出错,且容易产生幻觉的地方。
在互联网发达的中文网络,常见的商业写作往往杂糅了纪实文学的部分特点以吸引流量。这要求作者对纪实文学的特点有成熟认知,方能保证文章品质。值得注意的是,非商业方向的纪实文学本身,也是当下中文互联网的热门类型。许多社会媒体刊登的焦点内容,往往带有细致入微的社会观察,伴随强烈的情感共鸣,这些都是能够牢牢抓住读者注意力的核心要素。
使纪实文学具备感染力的核心不仅仅在于真实的人物和故事,而是故事和人物的各个细节,和通过细节体现的时代背景。至今,这种纪实文学依然不能完全依赖人工智能完成,作者必须直接走向大众,进行深度取材。
在电子游戏方向的中文垂类媒体中,这种纯由人工撰写的纪实文学,是彰显媒体核心能力与价值的绝对主力。不论是商业推广、市场营销、还是纯粹地为读者和玩家社群服务,这类文章能够仅以一种类型,解决两至三种不同领域不同客户各自的需求,某种程度上可以理解为一种“万金油”。
主观认知中的人工智能大模型工作原理
之所以强调 “主观”,是因为深究大模型的参数规模、所用技术算法、训练与强化学习的硬件配置等,对商业写作和纪实文学而言毫无意义,反而浪费时间。因此,我们不如直接在生产端,从“应用”的视角,直观感受大模型的工作原理。
比如,尽管不可避免地,在检索和整理时仍存在事实错误和幻觉,但就作者的主观使用体验来看,国内大模型在检索本土信息及相关信源可靠性方面,确实优于其他地区的部分大模型。其背后的原理很简单:国内的大模型使用的语料和搜索权重总是中文优先。因此,如果笔者后续还要撰写和中国本土有关的内容,在部分信息的检索和整理上,就会优先考虑国内的大模型。

上述图片引出了另一个现象,也是我之前撰写社区调查报告时遇到的,那就是大模型至今仍会非常模糊地“引用名人名言”,但实际上它们“引用”的“名人名言”并非真正存在,而是检索文章中采用的内容。这大概率是某种现阶段无法改善的拟合性的错误。我们知道,人工智能生成的回答并非源于它的认知,而是类似“中文房间”(Chinese Room)的“有样学样”模式,这就意味着,如果一句话通过非常凝练的语法描述了一个现象或现状,大模型就会认为这是一句“名人名言”,并胡乱说明这句“名人名言”的出处和时间。这是笔者目前遇到的最为头疼的问题,也是某严肃媒体编辑遇到的大问题。
当你在面对大模型,问出各种五花八门的问题时,大模型的回答往往并非遵守一种回答模式,这可能是因为部分人工智能应用背后可能已经上线了类似Agent的功能,通过调用不同大模型来解决不同后台问题,再将答案整理完之后返回给用户。如果向人工智能询问一些日常生活小窍门时,它们都会尝试使用更活泼的语气回应;而如果涉及到尖端技术,它们则会一本正经地进行专业回答——当然,不同的大模型对语气有着不同的设定,当前我能体验到的这种感受,大概率不具备普适性。
“产品化”你的文章:小步迭代,多次试错
面对人工智能大模型的种种可以克服的,或在技术层面无法克服的问题,作者能做的,就是接受大模型的“神鬼二相性”。如果没人能保证大模型生成内容的质量,那么就让它多生成几次。
这就有点像把一篇文章当作一款“互联网产品”,甚至是“AI原生产品”那样去设计。我可能手上有几个主题,其中一些已经有了一些见解,其中一些瞅准了某个未被满足的需求,但脑子里的东西还没有完全形成框架,那么我可以将这些零零碎碎的想法直接丢给大模型,让他帮我梳理一下这其中的逻辑——但是这里要注意!不少人工智能只是单纯地扩写你那些零零碎碎的想法,将已有想法扩充成框架,而不是将你的想法进行扩充,这时就需要在这些已经成型的框架之外寻找可以融入,或者需要去掉的部分,再或者看看AI的回答最底部有没有“需要我帮你详细分析……吗?”之类的建议,让大模型帮你拓宽一下思维,也未尝不可。
这时,我们完全可以让AI帮我们生成一篇Demo性质的内容。这是帮助我们更快梳理文章内容脉络的捷径!至少在我自己的写作体验中,先让AI生成一篇Demo,能够让我更早地发现我缺掉的逻辑链条,我就可以在行文的早期阶段补上这些在严肃写作中很关键的“扣子”。
由于我们要做的事情是“严肃写作”,因此基本的事实核查和数据收集都是不能缺少的环节,必要时还要联系其他人,甚至通过内容平台来扩充自己的资料库。
当基础的行文目标、文章脉络和资料库都准备完成之后,你可以继续让AI生成下一个Demo,或者开始上手整理大模型已经产出的内容了。就个人体验而言,目前人工智能在严肃写作领域能做的事情仍然有限,尤其是在商业性写作中加入有人情味和情绪共鸣的语句时仍旧非常生硬,这就需要我们自己收集来的信息和资源,填充这一部分,让文章具备真人撰写带来的“活人感”。
如果你尝试让大模型多次在不同的对话中生成同样的内容,它们生成的质量和内容并非“下一次一定比上一次强”,甚至前几次你输入提示词很少的那个回答,要比你之后用了超多提示词给出的内容好得多,所以一定要记得看看之前的内容,多做对比。所以不要删掉旧有的对话,就像不要删除较早的软件版本一样!
要不要成为某个品牌的“忠诚用户”
由于不同大模型在处理相同问题时频繁展现出侧重点不同的情况,如果想要将AI生成的内容真的放在严肃写作中,就需要大模型生成的内容逻辑自洽且描述全面。
我目前所有利用大模型生成的文章,不论是不是严肃类的,都是用2~3款大模型产品拼凑而成的。不过,这也导致我的部分AI文章呈现出在文笔和文风上不够统一,但粗看还说得过去的情况。
但这种“不忠诚”对中小团队而言就会非常棘手,因为他们真的花了真金白银订阅了某一款产品的高级版、企业版甚至“终极版”。几十上百美元的月费,对不少个人和中小团队而言并非小数目。
这在某种程度上呈现了未来商业化产品的一个趋势:ToB产品也将面临一个不确定的未来,而产品本身的不确定正是造成商业产品不确定的罪魁祸首。尽管当前仍有非常多的业务需要按照ToB的思路进行,并且这种方法论彰显着“可靠、稳定、超长待机”,但显然这种根基正在因为人工智能大模型的快速崛起而动摇。
中小团队在面对产品不可靠的解决方法看上去很简单:取消订阅,及时止损。但反过来看,一旦取消订阅,先进大模型的使用次数和Token限额就会被极大压缩,并且个人使用的次数和Token数量都是不固定的,更不要说三五个人的小编辑团队,如果处于业务高峰期,每个人调用大模型的次数和Token用量,可能比不上OpenAI大会上表彰的那些几天就能用掉万亿Token的顶级贡献者吧,但也跟那些天天通过API让AI给自己干活的码农差不多了。
通过某协同办公软件提供的API调用服务,确实可以依赖通过按Token计费的方式,缓解小团队的AI支出压力,但是至少在当下,小型严肃媒体团队或许很少有机会接触这类协同办公软件,而这也会投入相当的学习成本。我知道有很多非常厉害的开发者,文章也写得非常有见地,但事情一旦反过来,对于那些文章写得更好,但代码经验有限的人来说,可能就变成了一个老大难的问题。
有什么靠谱、便捷的解决方案吗?我没有答案,但这或许正是从业者们需要共同探索的未来。
(头图来源:豆包AI生成)
