美国 AGU 发布 AI 应用手册,明确 6 大指导方针

AI百科1个月前更新 快创云
22 0

  AGU(美国地球物理联盟)近期制定了一套「AI 应用指导方针」,旨在规范空间和环境科学领域中的 AI 工具使用。自 2012 年至 2022 年,与 AI 相关的论文数量呈指数级增长,凸显了其在天气预报、气候模拟和资源管理等方面的巨大影响。然而,AI 的广泛应用也伴随着潜在风险,如训练不足的模型或不当设计的数据集可能导致不可靠的结果,甚至可能产生危害。

  为了应对这些挑战,AGU 在 NASA 的支持下召集专家制定了指导方针,着重关注 AI 应用中的伦理和道德问题。这些指导方针不仅适用于空间与环境科学领域,更旨在为全方位的 AI 应用提供引导。相关内容已发表于「Nature」。

  目前,很多人对于 AI/ML 的可信问题仍持观望态度。为帮助研究人员和科研机构建立对 AI 的信任,AGU 提出了六大指导方针:

  1. 透明度、文档记录和报告:在 AI/ML 研究中,透明度和全面的文件记录至关重要。不仅要提供数据和代码,还要记录参与者及问题解决方式,包括处理不确定性和偏见。透明度应贯穿研究的始终。
  2. 意向性、可解释性、可重复性和可复制性:在使用 AI/ML 进行研究时,必须着重考虑这些方面。优先选择开放式科学方法,提高模型的可解释性和可重复性。
  3. 风险、偏见和效果:了解和管理数据集及算法的潜在风险和偏见对研究至关重要。通过更好地理解这些风险的来源及识别方法,能更有效地管理和应对不利结果。
  4. 参与性方法:在 AI/ML 研究中,采用包容性设计和实施方法非常重要。确保不同社区、专业领域和背景的人都有发言权,特别是对于可能受到研究影响的社区。

  对于学术组织(包括研究机构、出版社、协会和投资人),AGU 也提供了以下指导:

  1. 推广、培训和领先实践:学术组织需要为各个行业提供支持,确保提供有关 AI/ML 伦理使用的培训。科学协会等机构应提供资源和专业知识,支持 AI/ML 道德培训,并教育社会决策者了解 AI/ML 在研究中的价值和局限性。
  2. 组织和机构的考虑:学术组织有责任牵头建立和管理 AI/ML 道德问题的相关政策,包括行为准则、原则、报告方法、决策过程和培训。应阐明价值观,设计治理结构,以确保道德 AI/ML 实践得以贯彻。

  在 AI 应用的实践中,还需注意以下几点:

  • 留意偏差:当涉及人工智能模型和数据时,务必警惕其中的空白和偏见。数据质量、覆盖范围和种族偏见等因素都能影响模型结果的准确性和可靠性。
  • 开发解释人工智能模型工作原理的方法:研究人员应清晰记录如何构建、部署人工智能模型,以供他人评估结果。
  • 建立伙伴关系,提高透明度:通过与其他组织合作,共同推动 AI 应用的透明度和可解释性。
  • 持续支持数据整理和监管:跨学科研究领域需要符合 FAIR 原则的数据报告要求。为了建立对人工智能和机器学习的信任,需要公认、质量可靠的数据集。
  • 关注长期影响:在研究人工智能和机器学习在科学领域广泛应用的过程中,必须着眼于长期影响,确保这些技术能够减少社会差距、增强信任。

  在我国,人工智能也是近年来的热议话题。两会代表们纷纷提出各自的建议,如雷军鼓励扶持科创产业链,周鸿祎希望打造中国的「微软+OpenAI」组合等。这些建议都表明了对人工智能赛道的看好。在建立信任、谨慎使用的方针下,AI 有望更好地帮助企业和社会的发展。

© 版权声明

相关文章