Administrator
发布于 2025-05-04 / 51 阅读
0

ubuntu22.04.5安装ollama运行deepseek(CPU)

镜像下载地址:https://mirrors.aliyun.com/ubuntu-releases/22.04.5/?spm=a2c6h.25603864.0.0.43804ddaHzKRyO

Ubuntu系统操作

安装ssh服务

root@yzn-virtual-machine:~# apt install ssh

查看状态

root@yzn-virtual-machine:~# systemctl status sshd

查询ssh服务是否自启动

root@yzn-virtual-machine:~# systemctl is-enabled ssh

安装ollama

ollama程序包云盘资源分享

视频中涉及到ollama程序包下载我上传到云盘中了,有需要可以下载

百度云盘:链接: https://pan.baidu.com/s/15kZYI7JKdOeQ9ME7Gl77sw 提取码: fy2p

夸克云盘:链接:https://pan.quark.cn/s/56271eb438af 提取码:e1pw

阿里云盘:链接:https://www.alipan.com/s/otCkXn1UUGy 提取码:j2n1(阿里云盘中ollama linux下程序是压缩包无法分享,只有windows下安装包)

上传ollama包

解压包

yzn@yzn-virtual-machine:~$ tar -zxvf ollama-linux-amd64.tgz

查看ollama命令参数

yzn@yzn-virtual-machine:~/bin$ ./ollama --help

启动ollama

yzn@yzn-virtual-machine:~/bin$ ./ollama serve

查看ollama端口

yzn@yzn-virtual-machine:~/.config$ netstat -antup |grep ollama

默认只能127.0.0.1本机连接,如何修改允许其它人连接

添加环境变量

root@yzn-virtual-machine:~# vi .bashrc

export OLLAMA_HOST=0.0.0.0

root@yzn-virtual-machine:~# source .bashrc

检测环境变量添加是否成功

root@yzn-virtual-machine:~# echo $OLLAMA_HOST

0.0.0.0

再次启动ollama

远程访问

web浏览器访问下

postman请求下试试

常用命令

命令行下载模型deepseek-r1

root@yzn-virtual-machine:/data/bin# ./ollama run deepseek-r1 (默认下载后自动加载)

api下载模型deepseek-r1:8b

查看运行deepseek-r1模型服务器资源消耗

原来设置:4G内存4Gswap 实际内存:6G

原来设置:2核 实际使用cpu:3.5核

修改机器配置,改为8核16G再次测试

原配置

修改后

再次动ollama加载deepseek-r1模型查看资源消耗

只启动ollama占用内存1G

加载ollama模型

root@yzn-virtual-machine:/data/bin# ./ollama run deepseek-r1

查看内存(使用6G):

如果不调用模型发送消息cpu使用率很低,

我们发送个消息试试

再次查看cpu使用率

api调用下模型试试

列出本地模型

http://192.168.200.51:11434/api/tags

列出正在运行的模型

http://192.168.200.51:11434/api/ps

先加载模型

1、加载模型

2、再次查看正在加载模型

3、生成聊天(发送个消息)(JSON流媒体)

我们发现返回的信息是分为好几个字段的,能不能总结成一句话返回呢(无效流媒体)

如何记住上下文

默认每次发送请求都是新的对话

经过查询需要每次请求新的消息的时候要包括历史消息发送才可以记住上下文信息

卸载模型

再次查询模型是否运行

官方api文档参考:

https://github.com/ollama/ollama/blob/main/docs/modelfile.md