VMware版本:VMware Workstation Full v12.1.0-3272444 中文正式版
镜像版本:CentOS-7-x86_64-DVD-2009

sudo yum update 注意:安装过程中会多次提示:“Is this ok [y/N]”: ,需要手动键入“y”,才能继续进程,后续安装过程同样会遇到这个提示,不会再赘述。
sudo yum check-update 这里举例我常用的升级命令:
sudo yum install epel-release sudo yum install python3 sudo yum install python3-devel sudo yum install python3-pip python3 --version curl -fsSL https://ollama.com/install.sh | sh 1000Mbps的光纤,蹲个坑回来下了这么点...屑。

ollama run wangshenzhi/llama3-8b-chinese-chat-ollama-q4 ollama run wangshenzhi/llama3-8b-chinese-chat-ollama-q8 ollama run wangshenzhi/llama3-8b-chinese-chat-ollama-fp16 模型的下载速度比较快,小十分钟就能下好。

模型的版本越高、文件越大、运算力越好、越吃性能,我装的是q8_0版本,这里有个q8_0模型在线版的url,安装过程中可以进去把玩一下(要翻墙):https://huggingface.co/spaces/llamafactory/Llama3-8B-Chinese-Chat

可以问它一些中英互译比较有歧义的问题,来测试它对中文的语言理解和生成能力,不深入演示了,CPU要被干烧了。

[llama3@Llama3 ~]$ ollama list NAME ID SIZE MODIFIED wangshenzhi/llama3-8b-chinese-chat-ollama-q8:latest 6739fd08efd6 8.5 GB 21 minutes ago [llama3@Llama3 ~]$ ollama run wangshenzhi/llama3-8b-chinese-chat-ollama-q8 >>> Send a message (/? for help) Open WebUI是一个可拓展、功能丰富且用户友好的自托管 WebUI,旨在完全离线运行。它支持各种 LLM 运行器,包括Ollama和OpenAI 兼容API。简单地说就是给大模型提供一个图形化界面,以及生成一个API,后续就可以通过特定的IP+端口号在浏览器登陆大模型了。
sudo yum install -y yum-utils sudo yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo sudo yum install docker-ce sudo systemctl start docker sudo systemctl enable docker docker --version docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 挂一天一夜,基本上能下完。

安装完之后,可以用命令看进程,看到WebUI是运行在docker容器之上的。
[root@Llama3 ~]# docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 9bbab31dcda6 ghcr.io/open-webui/open-webui:main "bash start.sh" 15 hours ago Up 15 hours (healthy) 0.0.0.0:3000->8080/tcp, :::3000->8080/tcp open-webui 进去先注册账号,无需联网,相当于注册一个管理员账号。

语言可以设置成中文。


我已经安装过wangshenzhi/llama3-8b-chinese-chat-ollama-q8模型了,所以这里可以直接加载出来(忽略第四步,在这里直接在线拉取模型到本地,其实是可以的)。


如果您在从 Open WebUI 界面访问 Ollama 时遇到困难,这可能是因为 Ollama 默认配置为侦听受限网络接口。要启用从 Open WebUI 的访问,您需要将 Ollama 配置为侦听更广泛的网络接口。
systemctl edit ollama.service 记得“ESC”、“:wq”,保存并退出。
[Service] Environment="OLLAMA_HOST=0.0.0.0" systemctl daemon-reload systemctl restart ollama 