Skip to content
假设你最近想在小红书上发一篇种草笔记,想要推荐某品牌最新款的无线耳机。但问题是,你根本没买过,只是在别人的帖子里扫到几个关键词:“自适应降噪”“通透模式”“佩戴舒适”。不过你看到在自己的信息流里,这个产品很热门。
于是你打开一个AI写作工具,输入产品名字,把这几个词往里一填,点击生成。几秒钟后,一篇有头有尾、情感饱满、细节丰富的“亲测体验”笔记就出来了,开篇就是“姐妹们,这耳机用了三个月,地铁上开降噪简直是救命,通勤路上整个人都平静了……”
你把这篇笔记发到类似小红书等平台上去,它算什么?算你的个人创作?还是算虚假内容?
你是不是也没有一个清晰的答案?今天,AI学习圈主理人快刀青衣老师,将为我们介绍一起最近法院披露的相关案件,我们一起来看看。
不久前,浙江省杭州市中级人民法院披露了一起涉及小红书AI批量代写种草笔记典型案件。这是全国首例涉及AI代写“种草笔记”的不正当竞争案件,原告是小红书,被告包括几家提供和运营一款AI写作工具的公司。
被告方提供的这款工具,不是那种通用的AI写作助手,它专门针对小红书设计了功能模块,比如“小红书种草文案”“小红书旅游攻略”“小红书笔记标题”。明眼人一看就知道,它瞄准的是哪种内容生态。
用户操作也很简单:输入产品名称,再填几个关键词,一键生成,然后复制粘贴发出去。整个过程里,你不需要买过这个产品,甚至不需要有任何真实体验。AI会替你生成一篇看起来有头有尾、情绪饱满、细节丰富的“亲测笔记”。
而且,这款工具是收费的。用户需要购买会员,才能使用这些功能。
平台方把工具方告上了法庭,理由是:这个工具诱导用户批量生成、发布虚假笔记,破坏了平台赖以生存的“真实内容生态”,也增加了平台的治理成本,构成不正当竞争。
工具方的抗辩理由也很典型:我们只是提供技术工具,技术本身是中立的。用户怎么用,是用户自己的事,工具提供者不应该负责。
这个“技术中立”的说法,你听起来是不是挺有道理?就像卖菜刀的厂家不应该为用菜刀伤人的事负责一样。
但法院最终没有支持这种笼统的“技术中立”抗辩。我用大白话解释一下法院的意思:AI技术本身确实是中立的,但AI技术的具体应用不是中立的。你把这把“菜刀”打磨成专门适合某个动作的形状,还贴上使用说明,那你就不能说自己只是个卖刀的。
那法院到底怎么判断“这个AI工具的应用算不算不正当竞争的”?他们在判决里提出了一个“四要素判定法”,这也是这个案子最有价值的地方——它给整个行业划了一条可以参考的线。
第一条,法院要看的是:这个服务是不是生成式AI服务?
法律原话听起来有点绕,简单来说,就是这个工具有没有用AI来自动生成内容?它不是简单的模板填空,而是真的在“创作”文字?这个案件里的工具显然符合这一点。用户输入几个关键词,它就能生成一整篇有逻辑、有情感的“亲测体验”笔记。这不是普通模板工具,而是生成式AI服务。
这条线的作用,其实是先划定这个判定法的适用范围:它专门针对的是AI生成内容服务,而不是普通的写作辅助工具。
说完第一条,第二条更关键:这个服务是不是以某个特定平台作为应用场景?
这个很好理解,就是你这个工具是不是专门盯着某个平台?如果你做的是一个通用AI写作工具,用户可以拿它写邮件、写论文大纲、写读书笔记,也可以写朋友圈文案,那性质就不一样。它的用途是开放的,发布在哪里、怎么使用,主要由用户自己决定。
但这个案子里的工具不是,它的功能模块直接写着“小红书种草文案”,连平台名字都嵌进去了,目标对象非常明确,它就是专门为小红书定制的,它的商业价值就建立在帮用户绕过小红书的内容规则上。
打个比方,这就像你开了一家专门教人怎么逃票进某个游乐园的培训班,你可以说你只是在“教技巧”,但你的服务对象是确定的,你的商业模式是建立在损害那个游乐园利益上的。
第三条最有意思:这个服务有没有明确的指向性和诱导性?
法院关注的是,这个工具有没有主动引导用户去做某件“不好的事”?这个案件里,工具的核心卖点就是“无需真实体验,一键生成”。它不只是帮你把话写顺,它是在明确告诉用户:你不用真的用过这个产品,你也可以写出一篇真实感十足的体验笔记。这种产品设计本身就带着诱导性。
这和普通的语法润色工具、AI改写工具不一样。普通工具的出发点是“帮你把自己的意思表达得更好”,解决的是“我明明有感受,但我说不好”的问题,而不是“帮你无中生有捏造一段体验”。
这个案件里,用户需要买会员才能用工具。这意味着工具方并不是免费做技术公益,而是在商业上直接受益于这套“生产虚假内容”的模式。这个商业属性让它的责任边界比一个纯粹的技术工具更高——既然你靠这个模式赚钱,就必须对这个模式带来的后果负责。
所以,四条线合在一起,法院认定这个工具构成不正当竞争,判令停止侵权,并赔偿平台方损失10万元。
10万元对一家公司来说不算大数字,但这个判决真正的价值在于:第一次有法院把“AI工具是否构成不正当竞争”这件事说清楚了,并给出了一套可以复用的判断框架。以后再有类似的工具,对着这四条一比,答案就出来了。
不过讲到这里,很多人脑子里可能会冒出一个更切身的问题:那我自己用AI写笔记,算不算代写?
我先说一个自己遇到的事。同学们都知道,我们做了款硬件产品叫GetSeed AI录音卡。有一次,我在小红书上刷到一篇差评,提到了一个软件使用上的问题。我马上让运营同事去联系这个用户,想复现一下这个问题到底出在哪里。结果第二天同事回来跟我说:用户联系上了,但发现他根本没买过我们的产品。整篇笔记是AI生成的。
说实话,我当时有点无语。不是因为有人黑我们,而是因为这篇笔记里连一个真实的人都没有,它描述的那个“问题”,从来就没有发生过,但是看起来又特别真实,连我都给唬住了,更不要说普通用户了。
这件事让我对“代写”这个问题有了更清晰的感受。所以,回到刚才那个问题,我的看法是:用AI写笔记,并不直接等于代写。最核心的分界线是:你有没有真实的体验?
第一种情况,你买了一款耳机,用了三个月,觉得降噪很好,但耳塞有点硌耳朵。你把这些感受用语音说给AI听,让它帮你整理成一篇更流畅的笔记。你再改几个字,确认里面没有虚构事实,然后发出去。
这不是代写。你的体验是真实的,AI只是帮你把口语变成书面语,把零散感受整理成文段。就像你请朋友帮你润色文字一样,本质上,这篇笔记里装的还是你的真实感受。
第二种情况,你确实买了这副耳机,但懒得回忆,直接把产品名扔给AI,让它“写一篇真实感强的体验笔记”。AI写出来的东西里,有“三个月亲测”,有“地铁上开降噪简直救命”,有“通勤路上整个人都平静了”。
但问题是,没有一个是你的感受。你可能就是刚买,甚至压根不坐地铁。那些细节只是AI根据产品资料和常见评价拼出来的。这就是代写。因为这篇笔记里没有“你”,那是AI想象出来的一个用户。
第三种情况最典型:你根本没买过这个产品,也没用过这个产品。你只是觉得它最近流量不错,于是让AI直接生成一篇“亲身体验”。这当然是代写,是伪造。
我还有一个简单粗暴的判断方法,你也可以用:如果回到没有AI的时代,你还能不能讲出这段经历?讲得出,AI只是你的笔;讲不出,AI就是在替你编人生。
这个标准,其实不只适用于种草笔记,也适用于任何依赖真实用户体验的平台发布内容。特别是现在AI工具越来越多,使用门槛越来越低。我觉得有一个东西未来会变得越来越贵:属于你这个人的真实体验。
要不你看,现在很多机器做的东西都是标准价格,因为可以规模化复制,价格会越来越透明。但是古法手作或者非遗技艺这些难以规模化复制的东西,反而越来越有价值。
我有个好朋友,是点评上的资深KOL。跟他一起吃饭,不管去餐厅还是街边摊,他第一件事就是拍照。以前我觉得这多少有点职业病。但现在我反而觉得,这件事变得越来越珍贵。
因为未来大家真正想看的,可能就是这种有现场感的真实评价:你真的去了,真的吃了,真的排队了,真的踩坑了,真的有过一刻惊喜或者失望。而不是那种根本没去过那家店、也没点过那道菜,只是用AI根据菜单生成出来的:“这道红烧肉肥而不腻,上桌时还冒着热气,入口是浓郁的酱香,搭配米饭绝了。”
还有一个AI造假的重灾区就是旅游攻略。毕竟很多人去一个地方旅游,一辈子就去一次,信息不对称,试错成本高,纠错机会少。你在网上看到一篇景区攻略,图文并茂,细节丰富:几点去人少,哪个机位最好看,哪条小路能避开人群,哪家店是本地人才知道的宝藏。但它可能只是AI拼接了别人的游记,甚至编出了不存在的路线、不存在的机位、不存在的“本地人推荐”。
这些场景有一个共同点:内容生产者在用AI模拟一段从未发生过的体验,然后把它包装成“真实用户的真实感受”发布出去。而平台上其他用户在做决策时,依赖的就不再是经验,而是一个谎言。
所以我觉得,这个判决保护的,表面上是平台的商业利益,但本质上保护的是一件更重要的东西:人和人之间真实交流的空间。
这件事在AI时代会变得越来越难得。法院用这个判决划了一条线,这条线不是说你不能用AI,而是说:AI可以降低你输出内容的难度,加快你盖楼的速度,但是咱们不能无中生有胡编乱造。文字可以由AI润色,但生活不能由AI代写。
文章原文
