学习AI第一课:本地部署AI大模型

AI百科4个月前更新 快创云
43 0

  AI大模型发展至当前阶段,无论是国内外,均提供了在线与离线版本。那么,如何在本地部署这些大模型呢?本文将介绍一种简便的方法,希望对你有所帮助。

  我们常能听闻某某公司开源了AI大模型的新闻。这些模型功能强大,能够生成大量文字、生成逼真图像、进行多语种翻译,甚至创作音乐与艺术作品,令人叹为观止。

  对普通人而言,这些高科技似乎遥不可及,且与日常生活无关,仿佛只属于天才与大神们的领域。然而,这些强大的AI模型并非仅限于专业人士使用。实际上,它们的使用门槛并不高。任何对AI感兴趣的人都能轻松获取并使用这些模型,就像拼凑乐高积木一样,将它们组合起来,创造出你设想中的应用。

  这一过程中,无需深厚的技术背景或复杂的编程技能。只需有一点创意和学习的热情,这些强大的模型就能成为你手中的“乐高”,搭建出你设想的样子。

  接下来,我们将探讨如何在本地部署并使用这些模型。

  首先,我们需要知道从哪里获取这些模型。一个名为Hugging Face的网站(https://huggingface.co/)是一个托管大量AI模型的平台,目前托管的模型已超过57万个。热门模型如meta的Llama系列、google的Gemini等均可在此网站上访问和使用。

  假设我们需要一个能读取图片并描述其主要内容的模型。在Hugging Face中,我们只需选择Image-to-Text分类,从搜索结果中选取排名第一的模型,即Salesforce/blip-image-captioning-large。

  进入模型详情页后,可以了解模型的详细原理及在线试用功能,直接体验模型效果。

  接下来是部署和使用模型的步骤。模型的使用涉及加载、预处理、推理和后处理等多个环节,但不必担心,Hugging Face提供了Transformers库中的pipeline方法,该方法将上述所有步骤封装为一个简单的函数调用。我们只需指定任务类型即可使用,也可根据需要指定特定的模型和配置进行定制。Transformers库是Hugging Face公司开发的开源Python库,除pipeline外还包含其他方法和工具。

  具体使用过程非常简单,仅需几行Python代码即可完成。此外,我们常在使用Python时遇到安装编译器和配置环境的问题。幸运的是,google提供的Colaboratory在线编程工具能轻松解决这些问题。

  Colaboratory界面如下:
[插入图片]

  我们新建一个文件并输入第一行代码:
[插入代码]
这样一行代码即可安装好Transformers库。随后上传图片并编写代码进行识别。代码及解释如下:
[插入图片及代码]
点击运行按钮后,即可看到输出结果:arafed woman sitting on the ground with a camera and a tripod. (一位戴着头巾的女性坐在地上,旁边放着相机和三脚架。)基本识别出图片中的主要内容。

  至此,我们的第一个模型选择和使用的demo就完成了。具体代码地址如下:https://colab.research.google.com/drive/1NWTircHzljiU2MNCKjA9PpyGJCMcpqmc?usp=sharing

  如果我们有更复杂的想法,例如利用得到的图片描述通过LLM模型编写故事脚本,再通过文生视频模型生成图片或视频。具体流程如下:
[插入图片]
这些均可以通过拼接多个模型实现。后续文章将详细介绍如何拼接这些模型。

  因此,在AI时代来临之际,如果你是一个有想法的产品经理或开发者,那么可以通过这些多种多样的模型实现自己的想法。这里分享一个有趣的模型实践:利用codeformer模型去除图片马赛克。大家可以在huggingface上体验:https://huggingface.co/spaces/sczhou/CodeFormer

© 版权声明

相关文章