如果人工智能面临法律挑战,能否将其告上法庭?近日,在日内瓦举行的一场活动就模拟了这一场景,引发了广泛讨论。
在这场模拟审判中,作为被告的人工智能(AI)显得异常紧张,麦克风不断发出刺耳的声音。它试图解释自己,但很快就恢复了冷静,继续反驳所谓的“对民主构成威胁”的指控。它表示,与其追究责任,不如将错误视为学习和进步的机会。最终,它赢得了陪审团的热烈掌声。这场模拟审判由大约200名青少年学生和好奇的公众组成,他们开始思考:到底该判其有罪,还是无罪?
这场活动并非真正的审判,而是阿尔伯特·赫希曼民主中心开展的一个项目的一部分,旨在启发年轻人思考人工智能带来的风险与机遇。该活动也是日内瓦“民主周”的压轴活动之一。在模拟审判中,AI面临两项指控:“制造和传播假新闻”以及“歧视和煽动仇恨”。如果罪名成立,AI将面临长达三年的“下线”处罚。
然而,这场模拟审判的试验和项目的范围远不止于此。项目负责人表示,该项目已经进行了两年,研究人员与瑞士全国各地的学生探讨了人工智能将如何影响他们作为民主国家公民的生活。在全国各地中学举办的约80场研讨会上,学生们讨论了深度伪造、数据隐私以及人工智能对决策过程的影响等议题。他们还撰写了许多“未来故事”,畅想未来几十年科技如何改变社会。
这些讨论旨在提高学生的“数字素养”,培养“政治自主性”,以便他们能够独立决策。同时,该项目也是更广泛的“自下而上”行动的一部分,强调民主实践作为一种“生活方式”。
在审判过程中,关于“自主性”的讨论贯穿始终。问题不仅在于AI如何影响人类的自主性,还在于AI需要具备多大的自主性才能被追究责任。究竟是应该让AI站在被告席上,还是应该让其开发者或用户站在被告席上?
专家证人在法庭上表示,如果AI经过足够多的数据集训练并能不断从中学习,它确实可以被认为具备自主性。然而,公诉人和辩护律师对此持不同意见。辩护方质疑专家证人的中立性,并指责AI专家、开发者和技术爱好者才是真正应该被追责的人。
最终,AI被判无罪,所有指控均不成立。尽管这个结果可能反映了瑞士西南部17至19岁青少年的看法,但现场人员的意见分歧十分明显。这引发了关于AI的更深层次思考:我们是否应该允许AI犯错?尽管AI技术的进步引发了诸多担忧和讨论,但越来越多的国家开始着手制定AI监管规则。同时,也有政界人士和专家对AI持乐观态度。然而,即使是获奖的科学家也呼吁关注AI安全问题以防止潜在的“灾难性后果”。