从自然语言处理到计算机视觉等领域,生成式AI(GenAI)已超越了传统的单一数据源模型,通过整合多种数据源,使自然语言大模型(LLM)更接近于模仿人类的能力。随着企业从谨慎探索转向快速整合,GenAI在企业关键业务职能中的采用率将稳步上升,为企业带来核心竞争力提升等优势。
一方面,许多用户希望将GPT这样的LLM引入企业,建立自己的专属大模型。另一方面,即使是功能强大的LLM,如GPT-4,在处理特定领域或实时信息方面仍面临诸多挑战。单独使用LLM会面临两个主要问题:答案可能过时,响应可能出现错误。根据Vectara的幻觉排行榜,即使是表现最好的LLM系列的幻觉率也在1.5%到1.9%之间。
为了克服这些潜在问题,企业可以使用数据流将新信息导入其数据集,并部署检索增强生成(RAG),使大模型的响应更加准确且与上下文相关。RAG通过与大模型微调技术、知识图谱等协同作用,正在彻底改变数据的处理、解释和使用方式,从而实现更准确、上下文感知和个性化的AI应用。这种超强组合正被OpenAI、微软、AWS、阿里云等采用,领跑LLM的发展与应用。
训练数据的质量、数量和多样性对生成式AI模型的性能影响巨大,而模型架构、训练技术和所解决问题的复杂性等因素也发挥着重要作用。当前,幻觉问题、信息不准确、计算成本上升、资源有限以及对实时动态信息的需求等,都是企业级LLM解决方案需要解决的核心问题。为此,RAG应运而生。
那么什么是RAG呢?OpenAI ChatGPT、Google Gemini等AI应用的背后均由LLM驱动。LLM可以理解、总结、生成和预测新内容。但是,这些大模型生成的内容可能不一致,并在一些知识密集型任务中败北,尤其是那些超出其初始训练数据的任务或需要最新信息的任务。这种情况下,LLM可能会返回虚假信息,也称为AI幻觉。
为了解决这个问题,人们提出了RAG技术。RAG是一种人工智能框架和自然语言处理技术,可从外部知识来源检索数据用于大型语言模型(LLM),通过在响应中添加相关的检索数据来增强用户的提示,有助于减少明显的知识差距和AI幻觉。在需要尽可能多的最新和准确信息的领域(如医疗保健)应用中显得更为重要。
同时,RAG是一种经济高效且可扩展的方法,可以提高LLM的质量和实用性,而无需使用新数据重新训练模型。它适用于任何需要外部知识的领域或任务,如医疗诊断、法律建议或产品评论。用户可以自定义RAG以使用不同的知识源,如数据或专有信息,以满足特定的需求和偏好。
此外,RAG还可以提高LLM的性能。RAG在请求到达公共LLM之前拦截请求并使用专有组织数据来增强用户的请求。它将修改后的提示转发给LLM以获得更准确和相关的响应。通过简单的四步方法——用户提交请求、请求被拦截并得到扩充、向LLM提交增强查询、返回Tailored响应——简化了获得高度相关答案的过程。
应用RAG的好处包括:在内容生成上提供最新信息;综合信息;减少AI幻觉;在应用上增加用户信任;可用于多个任务;在成本上降低计算和财务成本。企业选择RAG最重要的原因是减少幻觉,提供更准确、相关和值得信赖的输出,同时保持对信息源的控制并能够根据其特定需求和领域定制。通过RAG等技术减少LLM幻觉的能力在不同的企业中都得到了验证。
目前,各大科技公司都在积极应用和推广RAG技术。例如,OpenAI将大型语言模型(LLM)与图形数据库Neo4j等相结合;微软CEO Satya Nadella在Microsoft Build 2024上表示RAG是任何AI驱动的应用的核心;阿里云推出了企业级大模型检索增强生成(RAG)解决方案;腾讯元宝、月之暗面的Kimi等也采用了各自的RAG技术。尽管RAG在模型需要满足特定信息需求的知识密集型情况下最有用,但在推理密集型任务中可能效果不佳且成本较高。然而随着技术的发展和硬件要求的提高未来RAG系统将更擅长通过使用历史数据、个人偏好和上下文来为个人定制响应并有望通过引入更多高级技术显著改善检索能力从而帮助使数据更易于访问、个性化、相关和可操作。在生产环境中部署RAG模型需要仔细规划并遵守最佳实践以确保模型可靠且安全地执行特别需要注意数据安全和隐私持续监控和评估以及微调和域适应等问题。