人工智能是机器执行我们通常与人类思维相关的认知功能的能力。机器与人类之间的协同合作,构建了生产力发展的基石。从历史车轮的革新到建筑项目的精细施工,再到自动化装配线的广泛应用,机器使我们的生活方式成为可能。然而,尽管机器展现出无尽的应用潜力,人类却长期对它们怀有恐惧——特别是担心机器有一天会获得人类的智慧并自主行动。
我们对有感知的机器既着迷又恐惧。这种好奇心驱使科幻小说成为现实。20世纪的理论家,如艾伦·图灵,设想了一个未来,其中机器能够比人类更快地执行任务。图灵等人的工作迅速使这一愿景成为现实。个人计算器的普及始于20世纪70年代,而到了2016年,美国人口普查显示89%的美国家庭拥有电脑。智能机器如今已成为我们生活和文化中不可或缺的一部分。
这些智能机器不仅速度更快,而且更加复杂。一些计算机已经突破了百万兆次级的计算门槛,这意味着它们可以在一秒钟内执行的计算量相当于个人在31,688,765,000年内完成的工作量。此外,除了计算机外,其他设备也在获得原本只属于人类和一些其他物种的技能和感知能力。
人工智能使机器能够执行我们与人类思维相关的认知功能,如感知、推理、学习、与环境互动、解决问题,甚至发挥创造力。即使你没有意识到,你也可能已经与人工智能进行了互动——例如,Siri和Alexa等语音助手以及帮助浏览网站的客户服务聊天机器人都是基于人工智能技术的。
人工智能在现实世界中的应用,即应用AI,对商业世界产生了深远影响。通过应用AI,公司能够提升业务效率和盈利能力。但归根结底,AI的价值并不在于系统本身,而在于公司如何利用这些系统来帮助人类,以及他们向股东和公众解释这些系统作用的能力,以建立信任和信心。
机器学习是人工智能的一种形式,能够处理广泛的输入,包括大量历史数据、合成数据或人类输入。一些机器学习算法专门用于训练自己以检测模式;这被称为深度学习。这些算法可以检测模式,并通过处理数据而非接收显式编程指令来做出预测和建议。一些算法还能根据新数据和体验进行调整,以随时间推移而改进。
生成式AI(Generative AI)是一种根据提示生成内容的AI模型。显然,如ChatGPT和DALL-E等生成式AI工具有潜力改变一系列工作的执行方式。关于生成式AI的潜力还有很多未知之处,但我们可以探讨一些问题——比如生成式AI模型是如何构建的,它们最适合解决什么样的问题,以及它们如何适应更广泛的人工智能和机器学习类别。
“人工智能”一词由计算机科学家约翰·麦卡锡于1956年在达特茅斯的一次研讨会上提出。但他并非第一个描述我们现在所称的人工智能概念的人。艾伦·图灵在1950年的一篇论文中引入了“模仿游戏”的概念——这是对机器展现智能行为能力的测试,现在被称为“图灵测试”。他建议研究人员应专注于不需要太多感知和行动的领域,如游戏和语言翻译。在许多情况下,致力于计算机视觉、自然语言理解和神经网络等概念的研究社区已有几十年的历史。
罗德尼·布鲁克斯分享了人工智能发展的前四个阶段:
- 符号人工智能(1956):符号AI也称作经典AI或GOFAI(好的老式AI)。关键概念是使用符号和逻辑推理来解决问题。例如,我们知道德国牧羊犬是狗,是哺乳动物;所有哺乳动物都是温血动物;因此,德国牧羊犬应该是温血的。
- 神经网络(1954、1969、1986、2012):神经网络是最近一代人工智能爆炸性增长背后的技术。神经网络松散地模拟了神经元在人脑中的交互方式,通过多次迭代来摄取数据并处理它,从而学习越来越复杂的数据特征。然后,神经网络可以对数据做出决定,了解决定是否正确,并使用它所学到的知识来确定新数据。例如,一旦它“学习”了一个物体的样子,它就可以在新图像中识别该物体。
- 传统机器人技术(1968年):在人工智能的最初几十年里,研究人员建造了机器人来推进研究。这些机器人大多依赖于高度受控的环境和完全脚本化的行为。虽然它们对人工智能本身的进步没有重大贡献,但传统的机器人技术在“同步定位和映射”(SLAM)方面产生了重大影响,这是自动驾驶汽车发展中的一个关键过程,也被用于真空清洁机器人和四轴飞行器无人机等消费产品。
- 基于行为的机器人(1985):在现实世界中,并不总是有明确的导航、决策或解决问题的说明。基于行为的机器人研究人员从昆虫的导航中寻找灵感——尽管它们几乎没有神经元(并且在进化上非常成功)。这些基于行为的机器人嵌入了神经网络。
“通用人工智能”(AGI)描述的是具有与人类相当能力的人工智能系统。从理论上讲,AGI有一天能够复制类似人类的认知能力,包括推理、解决问题、感知、学习和语言理解。但是,我们不要超越自己:这里的关键词是“有一天”。大多数研究人员和学者认为我们距离实现AGI还有几十年的时间;有些人甚至预测我们在本世纪甚至永远不会看到AGI。罗德尼·布鲁克斯认为AGI要到2300年才会到来。
虽然AGI出现的时间可能不确定,但一旦它真的出现——而且很可能会出现——将对我们生活的方方面面产生重大影响。高管们应该开始了解机器实现人类水平智能的路径,并过渡到一个更加自动化的世界。
狭义人工智能是将人工智能技术应用于特定且定义明确的问题的领域,如ChatGPT等聊天机器人、发现信用卡交易欺诈的算法以及快速处理数千份法律文件的自然语言处理引擎。当前的大多数AI应用程序都属于狭义AI类别。相比之下,AGI是人工智能的一种形式,它足够智能可以执行广泛的任务。
人工智能对各类企业而言都是一个重要的议题,但一些公司显然已经走在了前列。我们的2022年AI状况调查显示自2017年以来AI模型的采用率增加了一倍多投资也迅速增加更重要的是公司从人工智能中看到价值的具体领域已经发生了变化从制造和风险到以下方面:营销和销售、产品和服务开发战略、与企业融资相关的一组公司正在领先于竞争对手这些组织的领导者不断对人工智能进行更大的投资提升他们的实践以更快地扩展并雇用和提高最优秀的人工智能人才的技能更具体地说他们将人工智能战略与业务成果联系起来并通过设计可以快速适应新应用程序的模块化数据架构来“工业化”人工智能运营我们还没有看到一代AI模型的长尾效应这意味着使用它们存在一些固有的风险包括已知的和未知的 一代AI模型产生的输出通常听起来非常有说服力这是设计使然但有时他们生成的信息是完全错误的更糟糕的是有时它是有偏见的因为它是建立在互联网和社会的性别、种族和其他偏见之上的它也可以用于实现不道德或犯罪活动自从一代AI模型出现以来组织已经意识到用户试图“越狱”模型——这意味着试图让他们打破自己的规则提供有偏见的、有害的、误导性的甚至非法的内容Gen AI组织正在以两种方式应对这种威胁:一方面他们正在收集用户对不当内容的反馈他们还在梳理他们的数据库识别导致不适当内容的提示并针对这些类型的世代训练模型但是意识甚至行动并不能保证有害内容不会漏网依赖Gen AI模型的组织应意识到无意中发布有偏见、冒犯性或受版权保护的内容所涉及的声誉和法律风险但是可以通过几种方式减轻这些风险麦肯锡合伙人玛丽·埃尔·霍耶克说:“每当你使用一个模型时你都需要能够反驳偏见并指示它不要使用不适当或有缺陷的来源或者你不信任的东西如何?首先仔细选择用于训练这些模型的初始数据以避免包含有毒或有偏见的内容至关重要接下来组织可以考虑使用更小的专业模型而不是采用现成的AI模型拥有更多资源的组织还可以根据自己的数据定制通用模型以满足他们的需求并最大限度地减少偏见同样重要的是要让人类参与其中即确保真正的人类在发布或使用一代AI模型之前检查其输出并避免将一代AI模型用于关键决策例如涉及大量资源或人类福利的决策这是一个新领域怎么强调都不为过未来几年风险和机遇的格局可能会继续迅速变化随着人工智能越来越多地融入商业、社会和个人生活我们也可以期待新的监管环境正在形成随着组织使用这些工具进行试验并创造价值领导者将很好地掌握监管和风险的脉搏美国政府于2022年制定的《人工智能权利法案蓝图》为政府、科技公司和公民如何共同确保更负责任的人工智能提供了一个框架随着人工智能变得越来越普遍人们开始担心生成AI系统的功能用于训练它们的数据偏见和公平性问题潜在的知识产权侵权隐私侵犯等可能缺乏透明度该蓝图包括五项原则白宫表示这些原则应“指导自动化系统的设计使用和部署以在人工智能时代保护[用户]它们如下:使用安全和有效系统的权利系统应经过部署前测试风险识别和缓解以及持续监测以证明它们符合其预期用途防止算法歧视算法歧视是指自动化系统根据种族、肤色、民族、性别、宗教、年龄等对人们进行不合理的不同对待通过内置保护措施防止滥用数据行为用户还应该对他们的数据的使用方式有代理权有权知道正在使用自动化系统并清楚地解释它如何以及为什么有助于影响用户的结果选择退出的权利以及接触可以快速考虑和解决问题的人的权利目前已有60多个国家或集团制定了负责任地使用AI的国家战略这些国家包括巴西、中国、欧盟、新加坡、韩国和美国所采取的方法各不相同从基于指南的方法如美国的《人工智能权利法案蓝图》到与现有数据保护和网络安全法规保持一致的综合AI法规如将于2024年到期的欧盟《人工智能法案》各国之间也在努力制定AI使用标准美国-欧盟贸易和技术委员会正在努力加强欧洲和美国之间的协调全球AI伙伴关系成立于2020年拥有29个成员包括巴西、加拿大、日本、美国和几个欧洲国家尽管AI法规仍在制定中组织应立即采取行动以避免法律声誉组织和财务风险在公众关注的环境中一个失误可能会付出高昂的代价以下是组织今天可以实施的四项无悔先发制人的行动:透明度创建模型清单根据法规对模型进行分类并记录组织内外人员清楚的整个组织的所有使用情况统辖实施AI和生成AI的治理结构确保组织内部以及与第三方和监管机构的充分监督授权和问责制数据管理适当的数据管理包括对数据源数据分类数据质量和沿袭知识产权和隐私管理的认识模型管理组织应为AI开发建立原则和护栏并使用它们来确保所有AI模型都坚持公平和偏见控制网络安全和技术管理建立强大的网络安全和技术以确保安全的环境防止未经授权的访问或滥用个人权利让用户了解他们何时与AI系统交互并提供明确的使用说明大多数组织都在涉足AI池而不是炮弹广泛采用的进展缓慢可能是由于文化和组织障碍造成的但是有效打破这些障碍的领导者将最有能力抓住人工智能时代的机遇而且至关重要的是在汽车制造和金融服务等行业那些无法充分利用AI的公司已经被那些能够充分利用AI的公司排挤了为了扩大AI的规模组织可以做出三个重大转变:从孤立的工作转向跨学科协作AI项目不应局限于离散的组织相反当AI被具有多种技能和观点的跨职能团队使用时它的影响最大使AI能够解决广泛的业务优先事项支持一线基于数据的决策AI有可能在组织的各个层面实现更快更好的决策但要做到这一点各级人员都需要信任算法的建议并感到有能力做出决定同样人们应该能够在必要时覆盖算法或提出改进建议采用并加强敏捷思维方式敏捷的测试和学习思维方式将有助于将错误重新定义为发现的来源减轻对失败的恐惧并加快开发速度来源:麦肯锡博客