当地时间6月22日,纽约南区法院对Levidow & Oberman律师事务所作出判决,因向法院提供虚假信息,被处以5000美元罚款。此事件引起关注的原因是,律师们并非出于利益故意违法,而是过于信赖AI的能力。
今年3月,该律所的彼得·洛杜卡和史蒂文·施瓦茨接受客户罗伯托·马塔的委托,处理其与阿维安卡航空公司之间的官司。由于美国是判例法国家,法官在裁量时重视已有判例,他们决定利用ChatGPT来整理案例。ChatGPT迅速生成了一份格式工整、论证严密的文书,并加入了许多相关案例。稍作修改后,这份AI创作的文书被提交给法庭。
然而,审案法官凯文·卡斯特对文书中的案例感到疑惑,经查找确认这些案例并不存在。两位律师辩称,他们只是用AI辅助撰写文书,并未故意捏造案例欺骗法庭。尽管如此,卡斯特法官认为他们“放弃了自己应尽的责任”,且在文书被质疑后“依然坚持虚假意见”,因此作出处罚决定。
这起事件看似荒诞,却揭示了AI时代的一个重要问题——我们如何信任AI?
AI时代的五个“失”
近年来,AI技术因算力和算法技术的突破而迅猛发展,从科幻走进日常生活。尤其是ChatGPT等生成式AI的崛起,各种大模型如雨后春笋般涌现,实现大规模商业化。现在,人们可以低成本使用ChatGPT、Stable Diffusion及Midjourney等AI产品。
AI工具极大推动了生产力,带来生活便利。但大规模使用后也产生了很多问题,其中最重要的是五个“失”:失业、失真、失格、失陷和失控。
- 失业:AI带来的技术性失业问题日益严重,尤其是生成式AI崛起后,高薪白领也面临被替代的风险。
- 失真:AI应用让人难以鉴别文字、图片、视频的真伪。分为“假的真”和“真的假”,前者是AI未经人授意生成的虚假内容,后者是人们利用AI进行的有意造假行为。
- 失格:AI应用中出现违背伦理道德的问题,如歧视、信息茧房和隐私泄露。
- 失陷:AI难以应对外部攻击或突发情况的干扰或攻击,导致模型无法正常发挥作用。这些干扰包括随机攻击、白盒攻击、黑盒攻击和盲盒攻击。
- 失控:人们对AI的控制变得越来越难。一方面,深度学习模型的可解释性低;另一方面,当AI能力超越人类时,其潜在风险令人担忧。
可信AI的历史和标准
可信AI的概念最早在学术界提出,包括有用性、无害性、自主性、公正性和逻辑性等条件。各国政府和国际组织逐步接受这一概念,并建立相关法律、法规和指导文件。
2017年后,随着AI技术突飞猛进,关于可信AI的技术研究蓬勃发展。学术领域论文数量增加,实践领域各国开始按照可信AI标准制定规制规则。美国发布《人工智能权利法案蓝图》,英国发布《支持创新的人工智能监管方法》,欧洲议会通过《人工智能法案》提案的谈判授权草案。
在我国,何积丰院士于2017年首次引入可信AI概念。随后,政府和产业界共同重视这一概念。工信部印发《促进新一代人工智能产业发展三年行动计划(2018-2020)》,高科技公司如腾讯、阿里、百度、京东等提出自己的标准和实施规划。
关于可信AI的标准包括:稳健性、透明和可解释性、可验证性、公平性、隐私保护和可问责性。这些标准旨在解决AI的失真、失格、失陷和失控问题。
实现可信AI的合力
实现可信AI需要政府、企业、社会和技术等多方力量协同合作:
- 政府:作为监管者,制定相关标准和操作指南,并监督AI的开发者和使用者。根据不同应用场景和模型类别制定规则,并扮演好监督和执法角色。
- 企业:制定具体实施方案和标准,结合市场和技术特点给出更具体的方案,并采用自律方式实施。
- 用户:扮演反馈者和监督者角色,提出诉求和问题,并对企业实施可信AI的行为进行监督。
- 技术:依靠技术力量解决利用规则难以解决的问题。例如,利用电子水印技术保证生成图像或视频的可验证性,仿效新必应搜索在生成内容后附上参考文献,保证文字内容的可验证性。
总而言之,实现可信AI并非易事,但用好各方合力这一目标定可实现。