Llama3.1是AI界的Linux?先部署起来再说!

点赞 + 关注 + 收藏 = 学会了

本文简介

上周 Meta 发布了 Llama 3.1,这次带来的中杯、大杯和超大杯3个版本。

Llama3.1是AI界的Linux?先部署起来再说!

从纸面数据来看,Llama 3.1 超大杯已经能跟 GPT-4 OmniClaude 3.5 Sonnet 分庭抗礼了。

Llama3.1是AI界的Linux?先部署起来再说!

Llama3.1是AI界的Linux?先部署起来再说!

而中杯和大杯更是将同量级的对手摁在地上摩擦。

Llama3.1是AI界的Linux?先部署起来再说!

要知道,Llama 的对手可是闭源模型啊工友们!

小扎同志说,开源AI会成为行业的标准,就像Linux一样!

不管怎么说,既然你开源了,那我就在本地部署起来吧。

本文使用 Ollama 在本地运行大语言模型,它不止能运行 Llama 3.1 ,还支持阿里的 qwen2 等开源模型。

同时借助 OpenWebUI 的帮助,让你可以在图形化界面里跟 Llama 3.1 聊天互动。

安装 Ollama

Ollama 是一个专门为在本地环境中运行和管理大型语言模型(LLM)而设计的开源工具。

打开 Ollama官网 下载 Ollama

Llama3.1是AI界的Linux?先部署起来再说!

根据你的系统去下载对应的安装包即可。下载完就运行它,傻瓜式安装,一直点“下一步”就行了。安装完你就能看到一个客户端的图标。

Llama3.1是AI界的Linux?先部署起来再说!

下载并运行 Llama 3.1

回到 Ollama官网,进入 Models 页面,这里会列出很多热门的模型。你也可以在搜索框里搜索自己想要的模型。

Llama3.1是AI界的Linux?先部署起来再说!

这里我们选择 llama3.1

Llama3.1是AI界的Linux?先部署起来再说!

蓝框可以选择不同量级的 Llama 3.1 模型,红框是选中的这个模型的下载和运行命令。

Llama3.1是AI界的Linux?先部署起来再说!

405b的模型231个G,我电脑实在玩不起,硬盘的剩余空间都没这么大😭

我就拿8b的模型演示一下吧~

在终端输入这条命令就会开始下载 Llama 3.1 8b的这个模型,如果已经下载过了它会直接运行,不需要重复下载。

ollama run llama3.1

下载并运行成功后,你就可以在终端跟 Llama 3.1 这个模型对话了。

Llama3.1是AI界的Linux?先部署起来再说!

当然啦,如果你觉得 Llama 的中文不太强,可以试试阿里的 qwen2 ,在 Ollama官网qwen2 选择指定版本,复制下载命令到终端执行即可。

搭建 Web 界面

在终端和大语言模型聊天实在太原始了,有套好看的 Web 界面会更容易在老板面前装杯。

本文要介绍的是 OpenWebUI,使用 docker 运行它会比较方便。

看到 docker 不要慌,很简单的。

打开 docker官网 ,根据你的系统下载对应版本的 docker 客户端。

Llama3.1是AI界的Linux?先部署起来再说!

接着继续傻瓜式安装即可。

安装完 docker 后,需要打开 docker 客户端。

接着我们打开 OpenWebUI 的文档,文档列出几种运行方式,如果在本地运行,复制红框的命令在终端运行即可。如果你电脑有N卡,可以用绿框那条命令。

Llama3.1是AI界的Linux?先部署起来再说!

执行完上面的命令后,在浏览器访问 http://localhost:3000/ 就能看到下面这个界面。

Llama3.1是AI界的Linux?先部署起来再说!

首次注册的用户是管理员账户,邮箱和密码都可以随便填,这些都是保存在你本地的数据。只要你记得自己注册的是什么邮箱和密码就行了。

Llama3.1是AI界的Linux?先部署起来再说!

登录后就能看到上面这个界面,在聊天窗上方选择 llama3.1 模型就可以开始愉快的聊天了。

Llama3.1是AI界的Linux?先部署起来再说!


以上就是本文的全部内容啦。下一篇打算介绍一下“如何在本地部署一个基于 Llama 3.1 的 Coze 平台” 😁

点赞 + 关注 + 收藏 = 学会了

本作品采用《CC 协议》,转载必须注明作者和本文链接
讨论数量: 3

我要是上周看到你这个就好了。我捋清楚这些花了2天。哭了

1个月前 评论
德育处主任 (楼主) 1个月前

这个可以训练吗? 机器配置呢?

1个月前 评论

讨论应以学习和精进为目的。请勿发布不友善或者负能量的内容,与人为善,比聪明更重要!