张凌寒 贾斯瑶:人工智能生成内容标识制度的逻辑更新与制度优化 | 求是学刊202401

AI百科1个月前发布 快创云
27 0

内容提要:生成式人工智能正在重塑人们获取信息的方式,但其生成内容的质量参差不齐。随着用户生成内容时代的分流治理机制失效,标识制度应成为内容治理的核心,发挥“生成来源+真伪判断”的双轨提示作用。占据信息优势地位的模型开发者、服务提供者应履行内容安全保障义务与信息质量披露义务,主动修正虚假信息引发的用户认知挤压、心理冲击等问题。在具体标识制度优化迭代中,应设计人工智能生成内容质量光谱标识,要求对生成来源、责任主体、内容质量进行强制标识,以激活标识制度在信息内容筛选的实质作用。

关键词:生成式人工智能;标识制度;内容治理;信息辨认;虚假信息

问题的提出:“是否AI生成”的标识制度无法满足内容治理需求

  生成式人工智能已经颠覆了人类获取信息的方式,并预期2026年AIGC将占据未来互联网内容的90%。OpenAI公司推出的对话式人工智能ChatGPT展现出了卓越的语言生成、信息创造能力,其生成的信息在外观上具有可信赖度,用户会越来越习惯、依赖和信任人工智能提供的回答。基于此,对人工智能生成信息进行标识显得尤为必要。

  我国尝试设立了深度合成内容的标识制度。《互联网信息服务算法推荐管理规定》第九条要求,推荐服务者建立健全用于识别违法信息、不良信息的特征库,未作显著标识的算法生成合成信息的,应当作出显著标识后方可继续传输。《互联网信息服务深度合成管理规定》提出了内容标识管理要求,《生成式人工智能服务管理暂行办法》同样强调了服务提供者有义务对生成内容进行标识。与此同时,这也是各国共同采取的生成式人工智能内容治理方式。然而,“是否AI生成”的标识思路远远无法应对生成式人工智能带来的挑战。

  将人工智能生成内容进行无差别贴标,意味着真实信息、虚构信息、虚假信息一并被贴上标签,是一种形式标识,仍将内容质量的辨识义务留给了用户。目前,世界各国普遍采用的加注“是否AI生成”的标识制度无法满足人工智能时代的内容治理需求,未能有效降低虚假信息的扩散风险。本文围绕生成式人工智能内容治理的目标展开研究,首先讨论生成式人工智能对内容分类治理逻辑带来的挑战,并提出生成式人工智能服务提供者作为内容的生产者与分发者应承担信息质量安全保障义务与信息披露义务,并基于此提出AIGC内容的标识制度的优化设计方案。

生成式人工智能对内容分类治理逻辑带来的严峻挑战

  人工智能生成虚假信息的风险之高在于突破了现行内容治理逻辑。用户生成内容时代形成的治理逻辑是价值判断与真伪判断的二元分流,这一阶段机器生成的内容虽有但少,由人工审核足以完成。人工智能生成内容的席卷性出现,使得治理重点向生成来源倾斜,导致生成内容质量完全交由用户判断,进而衍生各类问题与风险。就此,应尽快修正并建立信息生成来源与真伪判断并行的双轨制。

  (一)治理现状:价值判断与真伪判断的二元分流机制

  在用户生成内容为主的时代,根据生成来源将内容分流为机器生成与用户生成。由于这一阶段人工智能生成内容在数量上占比较低,通常将人工智能生成内容的真伪判断默认为伪,由人工审核对其进行价值判断。用户生成内容则在“价值判断+真伪判断”的二元分类机制中完成筛选。随着人工智能生成内容的信息比例日益提高,信息内容分流压力与日俱增,依据生成来源将机器生成信息交由人工审核的分类模式产生不适,而价值判断、真伪判断的并行逻辑无法准确定性人工智能生成内容,内容分类参照存在紊乱与混淆。

  (二)治理目标:生成来源与真伪判断双轨并行机制

  随着生成式人工智能的广泛应用,机器生成的信息比例越来越高,生成来源的单轨判断标准仅具有形式上的判断功效,不具备信息内容治理的实质作用。人工智能生成内容的治理难点在于虚假信息(false)与虚构信息(fiction)的混淆,仅从信息外观上无法判定其性质,精细的人工筛查又难以追赶机器生成信息的速度。在社会治理思路的惯性下,目前仍是由政府管控、网站自治、用户举报三种管理形式相结合的模式。在此模式中,用户上传信息后,由平台机器进行自动化筛选,再经由人工审核后得以发布。“平台审核+用户选择”的双层筛选逻辑作为内置审核标准,可以将其理解为大型信息过滤筛选机制。然而,在人工智能生成信息涌入前,人工审核、人机结合审核的压力已达饱和。

人工智能生成内容标识制度的法理基础与逻辑修正

  个体的认知能力在人工智能生成内容的巨量性、可信赖性、强引导性面前显得尤为单薄。占据信息优势地位的人工智能服务提供者应主动进行信息披露,使用户能够借助外在的标识进行信息接收与筛选。标识制度的另一层考量是修正用户对于人工智能生成内容的依赖与信任,矫正算法引发的认知挤压、心理冲击等问题。

  (一)法理基础:作为内容生产者与分发者的质量安全保障与信息披露义务

  信息披露制度体现了公权对私权的限制。公权对在实质处于强势的私权进行限制能较充分地实现实质公平。现代社会之所以从工业社会向信息社会转型,并不是因为生产已经不重要了,而是因为生产决策与交易决策的作出更有赖于充分、有效的信息。在人工智能时代,信息是一切机器决策和生成内容的基础,亦是机器对人产生影响的主要方式。由于人工智能所占有的信息是巨量的,人类单靠自身智能难以拥有充分的、对称分布的认知,因此需要借助占据信息优势地位的人工智能进行信息披露。

  (二)逻辑修正:标识制度对于人工智能算法风险的矫正功效

  “人机交互”构筑了智能性与封闭性正相关的信息环境,情景化、对话式的交互方式卸下用户交流中的防备心理,算法的偏好分析使人工智能对不同用户生成量身定制的回答。根据麦克卢汉的媒介理论,“媒介”泛指与人有关的一切技术,人造物与技术物的核心是它隐含的讯息。生成式人工智能突破性的意义在于它的信息生产功能,能够有计划、有目的地输出讯息,作为媒介重塑、调整人们的感知模式与认知模式。当人工智能生成信息源源不断产生时,在短时间内人们的感知系统、认知系统、社会环境将出现“拥挤感”。

  (三)制度优势:推动现实空间与网络空间信息治理逻辑的统一

  人通过获得、识别自然界和社会的不同信息来区别不同事物,得以认识和改造世界。无论是在现实社会或是网络空间中,“标识”根植于人们的辨认习惯,符合以人为本的信息使用目的。在现实社会中,《食品安全法》第67条规定预包装食品的包装上应当有“检验合规”的标签,《危险化学品安全管理条例》第13条规定生产、储存危险化学品的单位,应当对其铺设的危险化学品管道设置明显标志。信息网络社会中,“tag”养成了用户分类、标签、检索习惯。在未来,现实空间与网络空间不断融合的过程中,带有标识的信息可实现在双重空间内无差别流通。

人工智能生成内容标识制度的完善与优化

  信息披露是现代社会信息公开的重要途径与手段,标识制度是信息披露义务在人工智能领域的体现。标识制度的优化设计应以健康的信息网络生态环境为导向,明确以生成式人工智能服务提供者为核心的主体责任,设置多维度的人工智能生成内容质量光谱标识。

  (一)制度目标:以健康的信息网络生态环境为导向

  网络内容的治理远不止于判断“是否AI生成”。我国以总体国家安全观统筹网络意识形态安全,在《国家安全法》《网络安全法》《数据安全法》《互联网信息服务管理办法》等法律法规的框架下,内容治理需求有:第一,坚持维护国家网络空间主权与意识形态安全;第二,构建多主体协同治理、相互配合的信息内容治理体系;第三,实现“网络生态治理和管理”向“网络生态建设和发展”的定位转变。人工智能生成内容标识制度的短期目的是搭建人工智能生成内容进入人类认知的“缓冲带”,长期效果是提升AIGC时代的信息内容治理能力。

  (二)标识的主体:以生成式人工智能服务提供者为核心

  全球范围内要求人工智能服务提供者履行标识义务已是大势所趋。在欧盟《人工智能法案》最新草案中指出,鉴于人工智能系统价值链的性质和复杂性,基础模型开发者具有信息披露义务。美国白宫《人工智能行动令》第1条中强调,要求为人工智能制定新的安全标准并要求人工智能公司与联邦政府分享安全测试结果。为避免信息披露义务的形式化履行,披露义务应具体包括:生成来源的强制性标识、责任主体的强制性标识、生成内容质量应属于强制性披露范围。第一,基础大模型开发者具有标识义务;第二,服务提供者直面用户;第三,用户具有不破坏已有标识的义务。

  (三)标识的内容:以设置多维度的内容质量光谱为路径

  全国信息安全标准化技术委员会在《网络安全标准实践指南——生成式人工智能服务内容标识方法》中给出了内容标识方法或通过在交互界面中添加半透明文字的方式显示水印标识或通过人类无法直接感知但可通过技术手段从内容中提取的隐式水印标识提示内容是由人工智能生成的。《求是学刊》2024年第1期法学要目还收录了其他相关文章如“数字权力的理论谱系”、“合规不起诉中的程序出罪理论探析”等探讨新兴权利法律问题和社会发展与法律多元的文章供参考学习交流使用但并不代表北大法律信息网(北大法宝)的法律意见或对相关法规/案件/事件等的解读。

© 版权声明

相关文章