• 作者:老汪软件技巧
  • 发表时间:2024-09-04 10:04
  • 浏览量:

一、关于Ollama1.1 简介

Ollama是一个专为在本地环境中运行和定制大型语言模型而设计的工具。它提供了一个简单而高效的接口,用于创建、运行和管理这些模型,同时还提供了一个丰富的预构建模型库,可以轻松集成到各种应用程序中。Ollama的目标是使大型语言模型的部署和交互变得简单,无论是对于开发者还是对于终端用户。

Get up and running with large language models.

Ollama官网

1.2 功能特点

本地运行能力:Ollama允许用户在本地机器上部署和运行语言模型,无需依赖外部服务器或云服务,这极大地提高了数据处理的隐私性和安全性。

多平台支持:Ollama支持多种操作系统,包括macOS、Windows和Linux,以及Docker环境,使得不同平台的用户都能轻松使用。

灵活的模型自定义:用户可以通过Ollama的Modelfile来定制模型参数和行为,实现模型的个性化设置,满足特定的应用需求。

丰富的API和库支持:Ollama提供了Python和JavaScript库,以及CLI和REST API,方便开发者集成到各种应用中。

模型库和导入支持:Ollama支持从多种格式导入模型,如GGUF、PyTorch和Safetensors,同时也提供了一个模型库,方便用户选择和使用。

Ollama支持多种操作系统,包括但不限于:

这种广泛的操作系统支持确保了Ollama的可用性和灵活性,使得不同环境下的用户都能轻松使用。

二、下载安装2.1 下载

通过如下链接下载

Download Ollama on Windows

(由于网络原因,下载比较慢或失败,可私信获取安装包)

2.2 安装

双击安装包安装

2.3 验证

进入cmd或PowerShell界面,输入如下命令,显示版本则安装成功

 Ollama -v

三、大模型下载

下面介绍三种通过 Ollama 下载大模型到本地方式:

方式一:直接通过 Ollama 远程仓库下载,这是最直接的方式,也是最推荐、最常用的方式方式二:如果已经有 GGUF 模型权重文件了,不想重新下载,也可以通过 Ollama 把该文件直接导入到本地(不推荐、不常用)方式三:如果已经有 safetensors 模型权重文件,也不想重新下载,也可以通过 Ollama 把该文件直接导入到本地(不推荐、不常用)

3.1 远程仓库大模型列表

_模型使用_模型取取安装教程

通过如下链接,进入ollama大模型仓库

library

这里以通义大模型为例,可以看到不同参数,对应模型大小。

3.2 通过命令执行下载并运行大模型

这里选择通义0.5b参数的模型:

下载命令

ollama pull qwen2:0.5b

下载+运行命令

ollama run qwen2:0.5b

3.3 测试—大模型对话

可以看到大模型在本地运行起来,并可以进行对话。后续教程会分享大模型应用,集成到java springboot项目中。

四、Ollama命令

Ollama作为一个开源的大型语言模型服务工具,提供了一系列的命令来帮助用户安装、配置、运行和管理大型语言模型。以下是一些基本的Ollama命令介绍:

【展示本地大模型列表:ollama list​】

>ollama list
NAME            ID              SIZE    MODIFIED
gemma2:9b       c19987e1e6e2    5.4 GB  7 days ago
qwen2:7b        e0d4e1163c58    4.4 GB  10 days ago

可以看到,上述有 2 个大模型,它们的名称(NAME)分别为gemma2:9b和qwen2:7b。

【删除单个本地大模型:ollama rm 本地模型名称​】

>ollama rm gemma2:9b
deleted 'gemma2:9b'
​
>ollama list
NAME            ID              SIZE    MODIFIED
qwen2:7b        e0d4e1163c58    4.4 GB  10 days ago

通过rm​命令删除了gemma2:9b大模型之后,再次通过list​命令查看,本地只有qwen2:7b一个大模型了。

【启动本地模型:ollama run 本地模型名​】

>ollama run qwen2:0.5b
>>>

启动成功之后,就可以通过终端对话界面进行对话了(本命令下面也会讲到,其他详细暂且忽略)

【查看本地运行中模型列表:ollama ps​】

>ollama ps
NAME            ID              SIZE    PROCESSOR       UNTIL
qwen2:0.5b      6f48b936a09f    693 MB  100% CPU        4 minutes from now

通过ps​命名可以看到,本地qwen2:0.5b大模型正在运行中。

【复制本地大模型:ollama cp 本地存在的模型名 新复制模型名​】

>ollama cp qwen2:0.5b Qwen2-0.5B
copied 'qwen2:0.5b' to 'Qwen2-0.5B'
​
>ollama list
NAME                    ID              SIZE    MODIFIED
Qwen2-0.5B:latest       6f48b936a09f    352 MB  4 seconds ago
qwen2:0.5b              6f48b936a09f    352 MB  29 minutes ago
qwen2:7b                e0d4e1163c58    4.4 GB  10 days ago

上面cp​命令,把本地qwen2:0.5b复制了一份,新模型名为Qwen2-0.5B


上一条查看详情 +浅析浏览器渲染的基石 — DOM Tree 与 CSSOM
下一条 查看详情 +没有了