根据您的系统环境和需求,以下是详细的步骤:

1. 安装NVIDIA驱动

1.1 添加ELRepo源

sudo dnf install -y https://www.elrepo.org/elrepo-release-9.el9.elrepo.noarch.rpm

1.2 安装NVIDIA驱动

# 方法A:从ELRepo安装(推荐)
sudo dnf install -y kmod-nvidia

# 或者方法B:从NVIDIA官方安装
# 先安装依赖
sudo dnf install -y kernel-devel kernel-headers gcc make dkms

# 下载驱动(访问 https://www.nvidia.com/Download/index.aspx 获取最新版)
wget https://us.download.nvidia.com/XFree86/Linux-x86_64/535.154.05/NVIDIA-Linux-x86_64-535.154.05.run
sudo chmod +x NVIDIA-Linux-x86_64-*.run
sudo ./NVIDIA-Linux-x86_64-*.run

1.3 验证安装

# 重启系统
sudo reboot

# 检查驱动
nvidia-smi

2. 安装Ollama

2.1 下载安装Ollama

# 方法A:使用官方脚本
curl -fsSL https://ollama.com/install.sh | sh

# 方法B:手动下载安装
curl -L https://ollama.com/download/ollama-linux-amd64 -o ollama
chmod +x ollama
sudo mv ollama /usr/local/bin/

2.2 配置systemd服务

# 创建ollama用户
sudo useradd -r -s /sbin/nologin -d /usr/share/ollama ollama

# 创建服务文件
sudo tee /etc/systemd/system/ollama.service << 'EOF'
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
Type=exec
User=ollama
Group=ollama
ExecStart=/usr/local/bin/ollama serve
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
Environment="HOME=/usr/share/ollama"
Environment="OLLAMA_MODELS=/usr/share/ollama/.ollama/models"
Environment="OLLAMA_HOST=0.0.0.0"

[Install]
WantedBy=default.target
EOF

2.3 设置目录权限

sudo mkdir -p /usr/share/ollama/.ollama
sudo chown -R ollama:ollama /usr/share/ollama

2.4 启用并启动服务

sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama
sudo systemctl status ollama

3. 验证安装

3.1 检查Ollama运行状态

# 检查服务状态
systemctl status ollama

# 检查API是否可用
curl http://localhost:11434/api/tags

3.2 测试GPU支持

# 拉取并运行一个模型测试
ollama run llama3.2:latest
# 或者在容器外测试
curl http://localhost:11434/api/generate -d '{
  "model": "llama3.2:latest",
  "prompt": "Hello",
  "stream": false
}'

4. 配置优化(可选)

4.1 创建模型存储目录

sudo mkdir -p /data/models
sudo chown -R ollama:ollama /data/models
# 修改OLLAMA_MODELS环境变量指向此目录

4.2 设置防火墙

# 如果需要远程访问
sudo firewall-cmd --permanent --add-port=11434/tcp
sudo firewall-cmd --reload

5. 常见问题解决

5.1 如果驱动安装失败

# 检查内核版本
uname -r

# 确保内核头文件匹配
sudo dnf install kernel-devel-$(uname -r)

5.2 如果GPU不被识别

# 查看NVIDIA设备
lspci | grep -i nvidia
# 查看驱动加载
lsmod | grep nvidia

5.3 Ollama启动问题

# 查看日志
journalctl -u ollama -f

完成以上步骤后,您的RTX 3060应该可以在openEuler 24.03上正常工作,并通过Ollama使用GPU加速运行大语言模型。