2023年人工智能指数报告关键发现:全球AI趋势与影响解析
研究与发展
-
中美合作领跑AI出版物:尽管步伐放缓,自2010年至2021年间,中美在跨国AI出版物上的合作仍居首位,数量增长四倍。然而,2020-2021年间,合作增长仅2.1%,为十年来最低。
-
工业界引领AI研究:自2014年起,工业界在AI模型发布上超越学术界,2022年,32个重要机器学习模型均来自工业界,相比之下,学术界仅发布3个。这凸显了数据、计算力和资金在构建先进AI系统中的重要性。
-
AI研究全面崛起:自2010年以来,AI出版物数量翻倍,从20万篇增至近50万篇。模式识别、机器学习和计算机视觉持续成为研究热点。
-
中美领先地位减弱:中国在论文总量上领先,美国在会议和存储库引用上占优,但领先优势逐渐缩小。尽管如此,多数大型语言和多模态模型仍由美国机构产出。
-
大型语言模型成本激增:从GPT-2到PaLM,模型参数和训练成本急剧增加。PaLM比GPT-2大360倍,成本高出160倍,整体而言,大型模型愈发昂贵。
技术性能
-
AI系统灵活性增强:最新模型如BEiT-3、PaLI和Gato能处理多种任务,打破单一任务表现优异的传统模式。
-
语言模型挑战重重:尽管生成能力增强,但在复杂规划任务中表现不佳。GPT-3、Instruct-GPT-3及BLOOM均面临挑战。
-
AI对环境影响复杂:研究表明,AI系统可能对环境产生负面影响,如BLOOM训练的碳排放高于航空旅行。但同时,BCOOLER模型通过优化冷却程序降低能耗12.7%。
-
生成式AI普及但问题频出:DALL-E 2、Stable Diffusion等系统进入公众视野,但存在不稳定性和虚假信息输出问题。
-
AI加速科学进步:AI模型助力氢融合、提高基质操作效率及产生新抗体,推动科学快速发展。
-
基准测试进步放缓:尽管AI技术飞速发展,但在许多基准测试上的改进微乎其微,新基准测试套件不断涌现。
-
AI自我优化加速进步:英伟达和谷歌通过强化学习改进芯片和语言模型设计,预示AI将自我优化并加速发展。
技术伦理
-
数据与方法影响AI偏见:大模型虽存在偏见和有害性,但通过指令调整训练可有所改善。
-
生成模型伦理挑战:生成模型备受关注,但存在性别偏见等问题。研究表明,37%的聊天机器人被赋予女性特征。
-
公平与偏见矛盾:尽管性能与公平性相关,但某些表现更好的语言模型可能具有更严重的性别偏见。
-
AI伦理兴趣高涨:ACM FAccT会议稿件数量激增十倍,表明研究人员、从业人员和政策制定者对AI伦理的兴趣增加。
-
事实核查挑战重重:使用自然语言系统进行事实核查面临挑战,因语言模型基于静态数据训练,缺乏实时更新和真实世界背景信息。
政策和治理
-
政策制定者关注AI:包含“人工智能”内容的法案数量从2016年的1个增至2022年的37个,全球立法程序中提及AI的次数增加近6.5倍。
-
政策视角多元:政策制定者从多个角度考虑AI作用,如英国讨论自动化风险、日本考虑保护人权、赞比亚研究AI预报天气可能性。
-
美国法案通过数量创新高:2021年联邦立法中仅2%的AI法案得到通过,2022年上升至10%,州级法案通过率也显著上升。
-
政府支出增加:美国政府与AI相关的合同支出金额自2017年以来增加约2.5倍,决策科学和计算机视觉成为重点支出领域。
-
法律界逐渐认识AI:美国州级和联邦法院中与AI相关的法律案件数量激增七倍,涉及民事、知识产权和合同法等问题。