摘要: 近年来,生成式人工智能技术的发展日新月异。OpenAIl推出的GPT系列,谷歌的LaMDA,百度的文心一言,以及其他领先的AI模型在自然语言处理、图像生成和音乐创作等领域展现出强大的内容生成能力。生成式AI的应用,不仅 ...
近年来,生成式人工智能技术的发展日新月异。OpenAIl推出的GPT系列,谷歌的LaMDA,百度的文心一言,以及其他领先的AI模型在自然语言处理、图像生成和音乐创作等领域展现出强大的内容生成能力。生成式AI的应用,不仅在艺术创作、商业文案、编程协作等领域提升了生产效率,甚至在学术写作和医疗服务等领域也带来了极大的便捷。但是这种“A I污染”现象在当今的社交媒体和内容平台上尤为明显,需要引起社会、学界和技术行业的重视。 其一、技术门槛与监管滞后。当前,生成式AI技术门槛并不高,任何人都可以通过开源模型或使用商业化AI工具进行内容生成。这种低门槛使得监管机构难以实时监控和辨别AI生成的虚假内容。此外,AI技术的快速迭代也使得现行法律和监管框架难以跟上技术发展的速度。传播学领域的“传播规范”理论强调,信息传播应遵循道德与社会规范,但在AI时代,技术的快速变化使得规范的制定和实施面临严峻挑战。其二、公众认知辨别能力低。信息消费中的“信息贫困”问题愈发凸显,普通公众在面对大量AI生成的内容时,难以判断内容的真伪与价值,这使得“数字素养”成为必备能力。培养公众的数字素养,使其具备识别AI生成内容的能力,是应对AI污染的重要措施。这也需要平台、学校和社区共同发力,加强对公众的数字素养教育。其三、平台责任自我治理弱。作为AI内容的主要传播渠道,社交媒体平台和内容平台负有不可推卸的责任。平台应当通过技术手段识别并屏蔽虚假账号和低质量内容,积极探索AI内容的自动审查和过滤机制。传播学中的“把关人”理论认为,平台在信息传播过程中起到关键作用,应当承担内容筛选和质量把关的责任。只有平台切熟,履行把关职责,才能有效减少AI污染的扩散。首先,完善法规强化监督和审查。为应对AI内容带来的信息污染问题,相关机构应加快制定针对生成式AI的法律法规,明确AI内容生成的标准和规范。在平台层面,政府可引导平台建立健全内容审查机制,以降低虚假信息和低质量内容的传播风险。同时,加强对AI生成内容的版权保护,为原创内容创作者提供支持,维护内容生态的良性发展。其次,加强对公众数字素养教育。针对公众的信息辨别能力较弱的现状,政府、学校和社会组织应加强数字素养教育,帮助公众增强对AI内容的识别能力。通过社区活动、线上课程等方式,培养公众的批判性思维和信息筛选能力,帮助其在信息泛滥的时代有效识别真实信息。最后,平台自律提升内容的质量。平台作为AI生成内容的传播主阵地,应当承担起自我治理的责任。平台可以通过机器学习技术,识别并标记低质量内容,设置内容发布的标准,确保信息的真实度与可靠性。此外,平台应与Al技术公司合作,共同提升AI内容生成的质量,并通过算法优化、内容审核等手段減少信息污染。未来,只有在政策、技术和公众教育层面共同努力,才能在生成式AI的应用中实现技术进步与社会责任的平衡。对生成式Al的使用,应遵循“慎重、合理、规范”的原则,方能在不损害公众利益的前提下,真正发挥技术的正面价值。 |