2025年,新一代人工智能从实验室走进人世间。网上网下,人人都在谈大模型、个个都在议黑科技,从DeepSeek应用到“杭州六小龙”的思考,AI话题已经和柴米油盐一起,成为寻常生活里的日常。不过,AI虽好,它也是一把“利刃”,用好了快刀斩乱麻,用坏了也是伤筋又动骨。最基本的一个逻辑是:由于AI在进行深度学习与内容生成时,是基于现有的互联网内容,若其获取的信息存在问题,那么,它生成的内容因此牵连。
水浑浊,源不清。我们不妨看几个具体的案例:比如,近期网络上流传“覃悦晴于2025年2月23日被活埋”的谣言,并结合AI生成内容试图渲染恐慌情绪,后经核查为假,网传图片为旧闻图片。又比如,“80后死亡率已超70后”的假消息引出“AI幻觉”问题,AI生成内容的真实性、可靠性常存疑。据南都大数据研究院不完全统计,2024年搜索热度较高的50个国内AI风险相关舆情案例中,超1/5与AI“造谣”有关。
正本清源,才能渠清如许。2月21日,中央网信办发布2025年“清朗”系列专项行动整治重点。明确提出整治AI技术滥用乱象,突出AI技术管理和信息内容管理,强化生成合成内容标识,打击借AI技术生成发布虚假信息、实施网络水军行为等问题,规范AI类应用网络生态。虚假信息及网络谣言在AI的加持之下,其杀伤力呈现出几何级的变化。一个共识可能会越发清晰:生成式AI技术加剧了网络谣言的欺骗性,权利受损的个体维权需投入大量时间与经济资源,维权成本越来越高,治理谣言须法律与技术双重干预。
今天,全球人工智能技术发展已从科学家推动转为研发应用推动。于是,一个怪圈日渐成型:网络灰黑产等不断给AI“投喂”大量虚假或劣质信息,而“迷信”AI的人则借助这个“超能生产工具”生产出大量不经考证的信息产品。这些谣言类的信息产品一旦贴上平台或者媒体的标签,又深度“投喂”给AI的数据库,最终,我们就深陷在谣言等虚假信息的茧房之中。学界频频提及的“AI幻觉”与“机器欺骗”,指的就是“AI会胡乱拼凑或虚构一些事实,让其生成的内容显得合理、自洽”。一方面是AI自己本身就有“胡编乱造”的“本事”,另一方面是别有用心的人给AI塞进海量的网络谣言,可想而知,这个怪圈的破坏力之于亿万网民来说,无人幸免、无可幸免。
AI不是神仙,独立思考不能躺平;AI类谣言不是玩笑,公共治理不能旁观。
AI越是发展,数据真实越发要紧。换言之,被污染的真实信息在AI魔幻式“调教”之下,已然是触及网络信息安全的核心命题。当下,人工智能从感知向认知、从分析判断式向生成式、从专用向通用转变,进入快速发展的新阶段。人工智能技术和应用迅猛发展,已经深入到经济社会的方方面面。因此,确保内容的质量和真实性尤为重要。正因如此,两件事情可谓当务之急:一是互联网信息库当为AI提供“清洁能源”,尤其是作为主流媒体,要时刻注意避免内容输出的导向风险,努力向互联网注入大量权威、事实准确的内容,为AI提供丰富且优质的语料库。二是监管部门须革新监管手段,提升监管力。“第一责任人”的平台监管力度亟待进一步提升,持之以恒地打击黑灰产账号,严控AI生成内容对社区的影响。
机器永不眠,科技无止境。有人因“AI主播”“AI医生”“AI公务员”“AI面试官”的上岗而倍感焦虑,但更多人深信人文关怀、复杂决策、价值判断等领域“人”的独特力量。抛开科技伦理与未来畅想不说,要让新一轮技术革命真正驱动世界的发展,我们不妨从“小处”做起:站在信息安全的高度,用行业自治与监管执法的双向力量,尽责尽力地为AI信息库激浊扬清、正本清源。(邓海建)