Tensor Core GPU 引领了一场生成式 AI 模型的革命,无论是辅助学生完成作业、规划假期,还是学习烹饪复杂的菜肴,AI 都能提供满意的答案。然而,这只是 AI 应用的一个方面,并非所有应用场景都需要这种技术。
人工智能,这一术语如今涵盖了广泛的应用,包括通过算法进行的学习、预测和决策过程,旨在模仿人类智能。它能够执行诸如面部识别、模式分析以及数据驱动的解决方案等任务。许多任务可以通过 AI 实现自动化,提高生产力,并将复杂或需要手动处理的数据链接在一起。
然而,AI 所需的计算能力因应用类型和 AI 类型而异。例如,3 级自动驾驶所需的 AI 与用于监控客户流量的零售应用截然不同。任务越复杂,对 AI 计算能力的需求就越大,同时需要收集更多数据来训练 AI。
那么,开发人员应如何做出正确的 AI 选择呢?根据西门子EDA集成电路设计验证AI/ML解决方案产品经理 Dan Yu 的观点,“人工智能需要从数据中学习”。每个开发人员需要首先问自己:“我如何获取数据来训练我的 AI 和机器学习模型?”虽然第三方数据可能可用,但必须验证其准确性,以确保 AI/机器学习模型能做出正确的预测。没有数据,就没有机器学习。
通常,至少 70% 的 AI 训练时间用于查找、清理和提取有用数据。剩下的时间则用于微调 AI 和机器学习模型。对于自动驾驶领域而言,许多领导者都在努力寻找足够有意义的数据来训练 AI 模型。尽管他们可以从行车记录仪和传感器(如激光雷达)收集大量数据,但其中大部分在训练 AI 模型时并无用处。例如,如果 AI 没有遇到过建筑物倒塌的场景,它就不会知道如何应对这种情况。因此,数据在 AI 中扮演着至关重要的角色。
尽管 AI 在多个领域带来了巨大好处,但其成本也不容忽视。例如,NVIDIA 的 Tensor Core GPU 成本高达 40,000 美元,功耗达 700W。对于科学和语言建模等高端应用,需要高性能机器学习系统,如 Cerebras 的系统。这些系统耗资数百万美元,并配备多个冗余电源。
AI 的好处是有代价的。随着 AI 在制造业、汽车、金融、医疗保健、教育、农业、智慧城市、娱乐、国防、能源、零售和数据中心等领域的广泛应用,其计算需求也在不断增长。然而,AI 的发展也带来了能源消耗的担忧。据 Ampere 首席产品官 Jeff Wittich 所述,“如果我们只关注最大性能,AI 将很快成为全球最大的能源用户。”如今,数据中心产生的 CO2 已占全球的 3% 左右——这不仅仅限于航空和航运。随着 AI 对计算能力需求的激增,这一趋势可能会失控。
此外,生成式 AI 和预测性 AI 是两种截然不同的技术。生成式 AI 需要高性能和密集计算,而预测性 AI 则可以使用低成本的 SoC 实现。瑞萨电子的高级总监 Kaushal Vora 表示,当今的 AI 用例大致可分为这两个领域。生成式 AI 主要用于生成新内容,而预测性 AI 则用于分析数据以做出预测和业务决策。这两种 AI 在计算需求和应用场景上有所不同。
在选择正确的 AI 设计时,需要考虑多个因素,包括项目目标、准确性要求、灵活性、中央计算与边缘计算以及设计权衡等。项目目标决定了所需的 AI 类型;准确性要求决定了所需的最低精度和预算;灵活性则考虑到了未来升级的可能性;而中央计算与边缘计算的选择则取决于应用的具体需求和资源限制。
展望未来,AI 有两条发展道路:一条提供高性能但消耗大量能量;另一条则注重能源效率和优化。两者都有市场需求并预计将继续发展创新解决方案来自科技巨头和初创企业包括 Axelera、SiMa.ai、Flex Logix 等这些公司正在推动 AI 技术的发展并带来新的可能性同时嵌入式 FPGA 在功耗、可扩展性和灵活性方面更具优势这对于快速变化的 AI 算法来说非常重要无论是为了提高性能兼容性还是出于安全原因都是如此。
总之人工智能创新将持续加速从长远来看人工智能开发将更强大、更节能、更低成本为开发者提供更多选择。