AI哨所|著名“AI教父”从谷歌离职:我为发展AI而后悔

AI百科3个月前更新 快创云
38 0

  《AI哨所》报道,5月2日,被誉为“AI教父”的杰弗里·辛顿(Geoffrey Hinton)宣布已从谷歌离职。作为培养ChatGPT等聊天机器人核心技术的先驱,辛顿如今对AI的潜在危害深感忧虑。

  自2012年起,辛顿博士及其团队在多伦多大学开发的技术奠定了AI系统的基础,如今已成为科技巨头未来发展的关键。然而,辛顿已加入AI批评者的行列,担忧生成式AI产品如ChatGPT的快速研发正将人类引向危险边缘。

  辛顿透露,他辞去谷歌职务是为了自由讨论AI的风险。在谷歌工作的十多年间,他成为该领域备受尊敬的人物。然而,他对自己一生从事的工作感到后悔,担忧AI技术的危险性。

  辛顿的转变标志着科技行业在关键拐点上经历了一个非凡时刻。尽管新的AI系统可能引发从药物研究到教育等领域的突破,但业内人士担忧其可能带来的危险。生成式AI已成为制造虚假信息的工具,并对就业构成威胁。未来,它甚至可能对人类构成威胁。

  自从OpenAI发布最新版ChatGPT-4模型后,包括马斯克在内的上千名科技领袖和高管呼吁暂停开发更先进的模型。几天后,人工智能促进协会的19位现任和前任领导人也发表了警告AI风险的公开信。然而,辛顿并未在这两封信上签名,表示在辞职前不想公开批评谷歌或其他公司。

  谷歌首席科学家杰夫·迪恩表示,公司仍致力于对AI采取负责任的态度,并在了解新风险的同时进行创新。但辛顿担忧,随着企业改进AI系统,其危险性将日益增加。他警告称,互联网将充斥虚假信息,普通人将难以分辨真伪;同时,AI技术可能颠覆就业市场,取代从事机械化任务的人类工作者。未来版本的AI技术更可能对人类构成威胁,因为个人和公司允许AI系统生成并运行自己的代码。

  辛顿表示,他不再认为自主化武器的实现需要30到50年甚至更长时间。“当你看到某种从技术上感觉不错的东西时,你就会去做。”他引用了美国“原子弹之父”罗伯特·奥本海默的话来回应如何研究潜在危险的技术。对于AI的未来,《AI哨所》将持续关注。

© 版权声明

相关文章