人工智能在推动社会进步的同时,也引发了一系列法律与社会伦理的挑战。霍金曾警示,AI的发明可能成为人类历史上的重大灾难,若管理不善,智能机器或将终结人类文明。
在人工智能的研发生态中,法律界聚焦于其主体性与归责问题。一方面,需审视是否应赋予AI应用(如机器人)法律主体地位;另一方面,需明确智能机器人非预期行为的责任归属,包括医疗事故、交通事故及交易失误等,这些事件应归咎于技术故障、操作失误、设计缺陷,还是制造者的错误、故意行为,乃至智能机器人的自主意识?法律如何有效监管AI的研发、制造与应用,并界定其法律责任?未来,AI能否替代理性思考者,如法官?
上海学者在AI法律领域的研究成果显著,即将推出的“独角兽法学精品·人工智能”丛书第三辑,涵盖隐私保护、数字歧视、算法规制等前沿议题。同时,世界人工智能大会2020云端峰会将聚焦“法治”,探讨AI的权利义务与法治实践。上海人民出版社为此发起专题读书会,旨在通过读书交流,深化对AI与法治的理解。
为提升司法公正,上海政法系统推出“206系统”,利用AI技术统一刑事案件证据标准与规则,实现证据校验、提示与监督。该系统虽为司法辅助工具,但仍需法治保障。目前,该系统正逐步推广至民商事、行政领域,意义重大。
AI对政府治理产生深远影响,可称为“政府效率革命”。长远看,AI减少行政成本,但短期内可能增加数据存储与运行成本。高奇琦教授提出数据并非越多越好,需平衡数据集中与分散的利弊。
何渊副教授分析了AI的五大治理风险:隐私保护、数据泄露、伦理问题、数据战争及国家能力。例如,酒店根据用户数据制定不同价格,凸显数据伦理问题。此外,算法推荐可能导致人们看到片面世界。在数据成为财富的时代,国家需加强数据能力,避免互联网公司替代国家认证能力,保障个人隐私与国家安全。