Skip to content

Agent

Ollama Web服务

前面我们是通过终端,来和大模型进行交互的。

另外,Ollama 还会启动一个 Web 服务器,监听 11434 端口,用来提供模型调用能力。

Terminal window
curl http://localhost:11434/api/tags # 查看本地模型
Terminal window
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:latest",
"prompt": "你是谁?"
}'

Agent

这里的 Agent,不是指的 AI 智能体,而是指代理服务器。

image-20250710111024054

代理服务器充当用户和模型交流的中间人。