AI前哨|超级智能该如何监管?全球最红AI公司OpenAI这么说

AI百科4个月前更新 快创云
47 0

  近日,ChatGPT开发商OpenAI的首席执行官阿尔特曼在美国国会作证时,坦诚表示人工智能(AI)可能会对世界造成重大伤害,并呼吁加强对AI的监管。为详细阐述其监管提议,阿尔特曼联合OpenAI总裁格雷格·布罗克曼和首席科学家亚·苏茨克维,于美国当地时间周一在OpenAI官方博客上发表了《超级智能的治理》一文。

  文章指出,未来十年内,AI系统将在多数领域超越专家的技能水平,并能开展与当今最大公司相当的生产活动。文章还提到,超级智能将比人类过去面临的其他技术更为强大,可以带来更加繁荣的未来,但实现这一目标必须控制风险。鉴于存在潜在的生存风险,我们不能只是被动应对,而应主动采取措施。

  文章提出了三个重要理念以帮助把握AI的发展方向。首先,需要在领先的开发项目之间进行协调,以确保超级智能的发展既安全又能顺利融入社会。其次,可能需要建立类似国际原子能机构(IAEA)的机构来开展超级智能工作,对超过一定能力阈值的工作进行国际监管。最后,需要让超级智能安全的技术能力得以发展。

  文章还强调,对于低于重大能力阈值的模型,应允许企业和开源项目进行开发,而不需要像文章中描述的那样严格的监管。然而,对于最强大系统的治理和部署决策,必须有强有力的公众监督。OpenAI计划对这一发展进行试验,并认为在广泛的界限内,个人用户应能控制他们所使用的AI的行为。

  考虑到这些风险和困难,文章最后提出了开发这项技术的两个基本原因:一是相信AI能带来比今天更好的世界;二是认为阻止超级智能的创造具有令人难以置信的风险和困难。因此,必须确保正确处理这一问题。作为科技媒体,《AI前哨》将持续关注这一话题的进展。

© 版权声明

相关文章