▲相比过去“手打文字”,AI生成的速度太快,且模仿能力极强,其编造的内容更容易以假乱真。图/IC photo


1分钱生成7篇文章,每天收入上万元。日前,有媒体起底了一个AI文章产业链。


据报道,一些从业者集中于固定的地域,利用AI每日生成4000-7000篇营销号文章。这些文章鱼龙混杂、真假难辨,却因为流量可观、成本极低,故而收入颇丰,“事业”俨然一副越做越大的架势。


这种批量生成、流量至上的模式,有着巨大的隐患。今年1月,某网络平台出现一条关于“西安爆炸”的消息,随后就被查明是出自一个MCN机构之手。


经调查,该机构的负责人一共经营了5家“MCN机构”,运营账号842个,一天就能生成4000-7000篇文章,全程基本不需要人工参与。“西安爆炸”只是他的一个“作品”而已,却通过这些账号的转发热炒,酿成了公共事件,也导致机构翻车。


之所以能成为一条产业链,主要是因为AI生成的成本极低且利润丰厚。随着AI技术的进步和普及,文章生成的成本几乎已经低到忽略不计。有媒体调查,使用一个国产AI,一篇AI文章的成本是人民币0.00138元,1分钱就可以生成7篇文章


以上述被查的机构为例,警方估算出的单篇文章平均收益为1.43元,“经初步估算,每天的收入在1万元以上”。成本和收益之比差了好几个小数点,可见其“利润空间”之大,成了一桩“好生意”。


通过文章赚钱,还不是机构的全部目的。从媒体报道可以看到,这些MCN机构会通过买卖账号、广告营销等方式进一步扩张业务范围,成了互联网上不可忽视的一大“势力”。AI文章产业链,则成了这一系列“商业版图”的起点,值得警惕。


事实上,AI生产的假新闻也已呈现出日益高发趋势。“某地一民房发生爆炸事故”“某市限制外卖配送”“某女星含恨离世”等耸人听闻的消息,后来都被一一证实是AI假新闻。


关于AI运用,相关规范是非常明确的。2023年1月正式实施的《互联网信息服务深度合成管理规定》就明确,如果运用了深度合成技术,应当在生成或者编辑信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。


今年4月,中央网信办秘书局发布《关于开展“清朗·整治‘自媒体’无底线博流量”专项行动的通知》,要求使用AI等技术生成信息的,必须明确标注系技术生成。


但很显然,很多AI文章产业链的从业者,其目的就是为了规避标注,从而起到掩人耳目的效果,自然也会无视这样的规定。这也给今天的互联网治理带来新的难题。


因为,相比过去“手打文字”,AI生成的速度太快,且模仿能力极强,很容易让人信以为真,甚至达到搞乱舆论生态、操纵公共视线的目的。相应的治理如何跟上这种技术进步,是一个不小的挑战。


这意味着,监管部门到互联网平台,都应当加强联动,增加技术识别能力,彻底封堵AI滥用的漏洞。


比如,相关部门应当着手进行技术标准配套工作,对数据库保持动态更新,用于实时监测这些AI生成的虚假信息,做到第一时间甄别、第一时间处置。同时,明确执法细则,对违法违规的相关责任人做出严肃处理。


同样,平台也要承担主体责任。这些AI假消息终归是在平台上传播的,其获利的方式很多也是通过“平台补贴”,平台绝不能因为享受了相关红利,就采取睁一只眼、闭一只眼的姑息态度。


因此,平台更应当积极作为,完善技术细节,对违规账号及时进行限流、封号等处置,并将相关线索通报有关部门,做到信息共通共享。


此外,生活在网络空间的每一位网民,也应当提高网络素养。人们应当意识到,如今的技术能力已经今非昔比,AI生成已经无所不在,对于那些过于夸张、耸人听闻的消息,不妨多留一个心眼,多进行交叉验证。


其实,如果网民都能保持理性、审慎态度,就不会被轻易带了节奏,这些炫人耳目的AI文章,自然就没了市场;这一AI“生意”,也就会在网络生态的良性运转中最终被淘汰。


撰稿 / 柳早(媒体人)

编辑 / 何睿

校对 / 翟永军