毕文轩 | 生成式人工智能的风险规制困境及其化解:以ChatGPT的规制为视角 | 比较法研究202303

AI百科2个月前更新 快创云
42 0

  生成式人工智能(Generative AI)技术的出现,以ChatGPT为代表,在显著提升工作效率的同时,也带来了诸多法律风险。这些风险不仅涉及数据使用、生成内容滥用及算法滥用,还包含其他诸多隐患。尽管我国已初步构建相关治理框架,但在治理主体、规范设置、治理手段及规则适用等方面仍存在不足。这种“破坏性创新”现象迫使我国从回应型、集中型治理向敏捷型治理转变。本文探讨了生成式人工智能的法律风险,并结合新近出台的《生成式人工智能服务管理办法(征求意见稿)》,提出了完善现有风险治理体系的建议,旨在实现数字经济的健康持续发展。

一、生成式人工智能工作原理及其引发的法律风险

  生成式人工智能主要包括生成式对抗网络(GAN)和生成式预训练转化器(GPT)。ChatGPT作为典型,通过海量数据训练和自我学习,生成类似人类的文本。然而,这种技术也带来了数据合规、生成内容滥用、算法滥用等风险。例如,未经许可传播用户隐私信息、生成错误常识内容等。此外,训练数据的准确性和隐私保护问题也需关注。

二、对既有规制方式的质疑

  当前,我国已形成初步的人工智能监管和治理规范框架,但存在治理主体过多、规范不完备、规定过于笼统或效力有限等问题。多头监管导致监管竞争与推诿,影响治理效果。同时,知情同意原则、目的限制原则与诚实信用原则在适用中也存在困境。欧盟与美国的经验为我国提供了镜鉴,但需要结合我国产业现状探索具有中国特色的治理策略。

三、生成式人工智能法律风险规制的症结与出路

  生成式人工智能的法律风险实质上是科技发展与监管策略之间的冲突。需正确认识“破坏性创新”与“试验性监管”的关系,坚持包容审慎的治理原则。具体举措包括从法律层面构建制度规范、在软法规范层面进行填补式风险治理、通过监管沙盒实现敏捷型风险治理等。这些措施旨在降低法律风险,同时不阻碍科技创新发展。

四、结语

  ChatGPT等生成式人工智能技术的出现对法律体系带来挑战。虽然我国已初步具备规范框架,但仍需完善治理主体、规范设置、治理手段及规则适用等方面。敏捷型治理模式结合试验性监管策略,将为生成式人工智能的健康发展提供有力保障。拥抱新技术变化,消除其消极影响,使其更好地服务于全社会是当前的重要任务。

© 版权声明

相关文章