吾生有涯 学海无涯
析模有界 知识无界

一条命令完成本地版大模型下载及安装使用

内容纲要

利用 Ollama 可以非常容易地体验一些比较流行的开源大模型。

Ollama是一个操作极为简单的大模型部署工具。

官网地址:https://ollama.com/
github地址:https://github.com/ollama/ollama

Ollama支持谷歌前两天开源的大模型Gemma,也支持一些公认的目前表现较好的开源大模型,如llama2、mistral、mixtral等,最主要的是能支持阿里前阵子开源的Qwen,包括0.5b到72b。这个目前应该是中文开源的最好的能在台式机上运行的大模型了。其实智谱的GLM3-6B也不错,不过从模型参数上看比不上Qwen-7B。

目前 Ollama 支持的一些名气比较大的模型(列表不齐全,更多的模型可以在官网查看):

需要注意,使用7B模型至少需要8GB显存,13B模型至少需要16GB显存,33B模型至少需要32GB显存。其实显卡拉垮的也可以使用内存,确保本机内存够大就行,Ollama似乎会自动检测本机硬件配置从而决定是使用显卡还是CPU。不过如果显卡拉垮的话,模型反应会非常慢。

利用 Ollma 部署模型非常简单。下面以 Qwen-7B 为例描述使用过程。

1 下载 Ollma 安装文件

访问 https://ollama.com/download,选择 Windows,单击 “Download for Windows (Preview)” 进行下载。

2 安装 Ollama

双击下载的安装文件OllamaSetup.exe,直接安装就可以了。安装完毕后软件会自动启动

3 使用 Ollama

访问 https://ollama.com/library,搜索你要使用的模型,主流的模型,比如 llama2、qwen1.5、mixtral 等,Ollama都支持。

  • 选择首页右上角的Models链接
  • 在打开的页面中可以搜索想要使用的模型,如要使用的Qwen
  • 选择搜索到的模型链接,可以查看模型加载方式

如图所示,若想要使用7b模型,可以使用命令ollama run qwen:7b

  • 启动PowerShell,输入命令,软件会自动下载模型

默认情况下模型被下载到了路径 C:UsersAdministrator.ollamamodelsblobs 下。下载完毕后如下图所示。

此时可以直接进行提问使用了。如下所示,能识别鲁迅和周树人,对于7b小模型来说已经很不错了。

使用Ollama当然不只是为了单纯进行对话,其实可以将Ollama当做一个加载了大模型的服务器,从而实现本地知识库分析与提取。这个大家有兴趣可以自行摸索。

这两天比较火热的谷歌开源的Gemma模型也可以在ollama中使用,其包括2b和7b两个版本,其中7b模型的调用命令为ollama run gemma:7b

安装完毕后可以使用,如下图所示。gamma在中文方面,依然智商不高,不过想想ChatGPT3.5也回答不来这个问题,也就没啥好说的了。

不过英文提问效果还凑合。gemma-7B准不准不好说,快是真的快。

Ollama支持从外部进行调用,其github官网提供了外部可以调用的一些UI和工具。

比如这里使用 Chatbox 进行调用,有兴趣的道友可以自行尝试。


(完)

本篇文章来源于微信公众号: CFD之道

赞(1) 打赏
版权声明:未经允许,请勿随意用于商业用途。
文章名称:《一条命令完成本地版大模型下载及安装使用》
文章链接:https://www.topcfd.cn/38236/
本站资源仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。
分享到

说两句 抢沙发

评论前必须登录!

 

觉得文章有用就打赏一下文章作者吧

非常感谢你的打赏,我们将继续给力更多优质内容,让我们一起创建更加美好的网络世界!

支付宝扫一扫

微信扫一扫

登录

找回密码

注册