人工智能计算:新时代的数学工具
从算盘、六分仪、算尺到计算机,数学工具的发展见证了人类的进步史。这些工具不仅推动了贸易和航海的发展,还提高了人们的认知和生活质量。如今,人工智能(AI)计算成为最新的数学工具,正引领着科学和工业的变革。
AI 计算的内涵
AI 计算是一种基于机器学习和算法的数学密集型流程,利用加速系统和软件,从海量数据中提取新见解并学习新能力。在数据时代,AI 计算是革命性的技术,能够发现人类难以察觉的规律。例如,美国运通利用 AI 计算检测信用卡交易中的欺诈行为,医生则用它来发现肿瘤和医疗影像中的异常情况。
AI 计算的三个步骤
在深入了解 AI 计算的用例之前,先了解它的运作方式。用户(通常是数据科学家)需要整理和准备数据集,称为提取/转换/加载(ETL)。这一过程现在可以通过 Apache Spark 3.0 在 NVIDIA GPU 上加速进行。然后,数据科学家会选择或设计适合其应用的 AI 模型。一些公司会选择从头开始设计并训练自己的模型,这可能需要 AI 超级计算机和 NVIDIA 的支持。最后,公司会通过模型筛选数据,称为推理,AI 将提供可行的洞察与见解。这三个步骤虽然复杂,但在各种工具的帮助下,每个人都可以使用 AI 计算。例如,NVIDIA TAO 工具套件使用迁移学习将三个步骤简化为一个,而 NVIDIA LaunchPad 则提供了模型部署用例的实践培训。
AI 模型的内部构造
AI 模型被称为神经网络,灵感来源于人类大脑的网状构造。它们由多层线性代数方程组成,类似于数学“千层面”。深度学习是目前最流行的 AI 形式,由许多这样的“层”组成。每一层都由众多方程式堆栈组成,每个方程式都代表着一组数据相互关联的可能性。AI 计算将每一层中的方程堆栈相联系,以寻找规律。这是一项庞大的工程,需要高度并行的处理器在高速计算机网络上共享大量数据。
GPU 计算与 AI 的结合
事实上,AI 计算的引擎是 GPU。NVIDIA 于 1999 年推出了第一款 GPU,用于需要大规模并行计算的电子游戏 3D 图像渲染。GPU 计算很快被推广到电影大片的图形服务器中。科学家和研究者在世界上最大的超级计算机上使用 GPU 进行研究,范围从小到化学中的微小分子,大到天体物理学中的遥远星系。当 AI 计算在十多年前出现时,研究者很快开始使用 NVIDIA 的可编程平台运行并行处理。
AI 计算的历史
AI 的概念至少可以追溯到艾伦·图灵的时代。这位英国数学家在二战期间帮助破解了密码信息。1947 年,图灵在一次演讲中说:“我们想要的是一台能够从经验中学习的机器。”NVIDIA 为了纪念他的远见卓识,以他的名字命名了一个计算架构。图灵的展望在 2012 年成为了现实。研究者在 2012 年开发出了能够比人类更快、更精准识别图像的 AI 模型。ImageNet 比赛的结果大大加快了计算机视觉的发展。今天,许多公司正在使用 AI 和计算机视觉提高制造业的效率,同时 AI 也在体育、智慧城市等领域带来更接近真人的视角与思维方式。
AI 计算开启对话式 AI
2017 年 Transformer 模型面世后,AI 计算在自然语言处理方面取得了巨大进步,出现了名为“attention”的机器学习技术。它可以捕捉如文本、语音等连续数据中的上下文。如今,对话式 AI 已十分普遍。它可以解析用户在搜索框中输入的句子,也可以在用户开车时读出短信并让你口述回复。这些大型语言模型还被应用于药物研发、翻译、聊天机器人、软件开发、呼叫中心自动化等众多领域。
AI+图形:创造 3D 世界
许多领域的用户正在体验 AI 计算的力量。最新的电子游戏凭借着实时光线追踪与 NVIDIA DLSS 将画面真实性提高到了更高级别。后者利用 AI 在 GeForce RTX 平台上为用户提供了超流畅的游戏体验。这仅仅是个开始。新兴的神经图形学将加速虚拟世界的创建,以填充 3D 互联网与元宇宙。
AI 计算用例
汽车、工厂和仓库:汽车制造商正在运用 AI 计算以提供更加平稳、安全的驾驶体验,并为乘客提供智能化车载信息娱乐功能。梅赛德斯-奔驰正在与 NVIDIA 联手开发软件定义汽车。许多公司通过在 NVIDIA Omniverse 中创建 AI 数字孪生工厂来提高工厂的效率。工厂和仓库内的自主机器人进一步提高了制造业和物流业的效率。这些机器人由 NVIDIA Jetson 边缘 AI 平台驱动,并通过 NVIDIA Isaac Sim 在模拟和数字孪生中使用 AI 进行训练。此外,AI 计算还被应用于网络安全、基因序列检测等领域。如今,AI 计算技术不断开拓新应用,研究者正在开发更新、更强大的方法。