如何白嫖别人部署的“Ollama”Ai?
Ollama 作为开源大语言模型部署工具,因操作简便广受欢迎,但默认无 API 身份验证且监听地址为 0.0.0.0(允许所有网络访问)。若服务暴露至公网,任何人可直接使用你的 Ollama 实例,导致计算资源被"白嫖",甚至泄露本地数据。

1. 如何白嫖公网暴露的 Ollama
(1)获取ip和端口
"Ollama is running" | ||
"Ollama is running" | ||
"Ollama is running" | ||
"Ollama is running" |
使用
1.通过openwebui使用:OpenWebUI
2.通过免费第三方网站使用:
限制 Ollama 仅监听本地地址 127.0.0.1,阻止外部网络访问。以下是各系统配置方法:
2.1 Linux/macOS 系统
通过修改环境变量永久生效:
# 追加环境变量到 shell 配置文件(bash/zsh 二选一) echo"export OLLAMA_HOST=127.0.0.1" >> ~/.bashrc # bash 用户 # echo "export OLLAMA_HOST=127.0.0.1" >> ~/.zshrc # zsh 用户 # 立即生效配置 source ~/.bashrc # 对应上述配置文件
说明:重启 Ollama 服务后仍保持设置,若需临时恢复公网访问,执行 unset OLLAMA_HOST 并重启服务。
2.2 Windows 系统
临时启动方式
启动时直接指定监听地址:
ollama serve --host 127.0.0.1
永久生效设置(开机自启)
新建文本文件,写入以下内容:
@echo offollama serve --host 127.0.0.1
保存为 ollama_start.bat;通过 Windows 任务计划程序,设置为开机自动运行该批处理。
3. 额外安全建议
防火墙加固
:禁止端口 11434的外部访问(双重防护);监听检查:
Linux: netstat -tuln | grep 11434(确认监听127.0.0.1);Windows: netstat -ano | findstr "11434";
https://gitee.com/web/ollama-share



