Ollama 上线 “Web search” API,为 LLM 集成实时网络搜索能力

ollama 正式发布“web search”api,使大语言模型具备实时获取互联网信息的能力,显著提升回答准确率并有效降低幻觉现象。

Ollama 上线 “Web search” API,为 LLM 集成实时网络搜索能力

Ollama 上线 “Web search” API,为 LLM 集成实时网络搜索能力

该功能以 REST API 形式开放,并已深度集成至 Ollama 的 Python 和 JavaScript SDK 中,便于开发者在各类应用中快速接入与调用。同时,平台还推出了 web fetch 接口,支持提取指定网页的完整结构化内容,包括标题、正文及链接信息。

借助 web searchweb fetch,开发者可构建智能搜索代理系统,实现模型在对话过程中自主检索外部数据。该功能还兼容 MCP(Model Context Protocol) 配置环境,并可无缝集成至 Cline、Codex 等主流客户端中,拓展应用场景。

Ollama 上线 “Web search” API,为 LLM 集成实时网络搜索能力

Ollama 上线 “Web search” API,为 LLM 集成实时网络搜索能力

Ollama 提供免费试用额度,满足基础使用需求;如需更高请求频率和吞吐能力,用户可升级至付费方案。官方建议在使用上下文长度较大的模型(例如支持 32k tokens)时启用此功能,以便更高效地处理复杂的检索结果。

这一更新意味着 Ollama 模型将能融合实时网络信息进行推理与生成,为开发者打造更加智能、精准的 AI 应用提供强大支持。

源码地址:点击下载

网友留言(0 条)

发表评论