首页 十大品牌文章正文

Ollama 新动作,联网搜索、MCP、云端大模型,更强了

十大品牌 2025年10月17日 16:59 0 admin

大家好,我是 Ai 学习的老章。

Ollama 最近又搞了几个大新闻,不仅在免费云端模型里加入了强大的 Qwen3-VL,还推出了能让大模型联网的网页搜索 API。作为 Ollama 的忠实用户,我必须得带大家深入体验一下。

云端模型新成员:Qwen3-VL

还记得我之前介绍的 Ollama 可以启动云端大模型了,免费额度 吗?当时我们体验了 gpt-oss 和 deepseek-v3.1 等云端模型。现在,这个家庭又迎来了一位新成员:Qwen3-VL

Ollama 新动作,联网搜索、MCP、云端大模型,更强了

Qwen3-VL 是一个非常强大的视觉语言模型,它的多模态能力相当惊人。官方介绍它具备以下几点能力:

  • 视觉代理:能看懂电脑和手机界面,并进行操作。
  • 视觉编码:能把图片甚至视频转换成 Draw.io、HTML/CSS/JS 代码。
  • 高级空间感知:能理解 3D 空间关系。
  • 长视频理解:支持超长上下文,看几小时的视频都没问题。
  • 增强的 OCR:支持 32 种语言,各种刁钻角度和光线下的文字识别都不在话下。
Ollama 新动作,联网搜索、MCP、云端大模型,更强了

现在,除了之前的几个云端模型,我们又多了一个选择:

  • • gpt-oss:20b-cloud
  • • gpt-oss:120b-cloud
  • • deepseek-v3.1:671b-cloud
  • • qwen3-coder:480b-cloud
  • qwen3-vl:235b-cloud (新)

使用方法和之前一样,登录 Ollama 账号后,直接在命令行运行:

              ollama run qwen3-vl:235b-cloud

或者在 Python 中通过 API 调用。比如,下面这个例子展示了如何使用 Qwen3-VL 来翻译菜单:

Ollama 新动作,联网搜索、MCP、云端大模型,更强了

              from ollama import Clientclient = Client(    host="https://ollama.com",    headers={'Authorization': 'YOUR_API_KEY'})response = client.chat(  model='qwen3-vl:235b-cloud',  messages=[    {      'role': 'user',      'content': 'Translate the menu in the image to English.',      'images': ['https://files.ollama.com/qwen3-vl/menu-example.png']    },  ])print(response['message']['content'])

这对于需要强大视觉理解能力的应用来说,绝对是一个福音。

让大模型联网:网页搜索 API

另一个重磅更新是网页搜索 API。这个功能可以让 Ollama 的模型(无论是本地还是云端)连接到互联网,获取最新的信息。

这个 API 提供了两个主要功能:

  1. 1. 网页搜索 (/api/search): 给一个查询,返回相关的网页列表。
  2. 2. 网页内容提取 (/api/fetch): 给一个 URL,返回该网页的纯文本内容。

同样,你需要一个免费的 Ollama 账户和 API 密钥。

与 MCP 客户端集成

值得一提的是,这个网页搜索功能还可以直接接入现有的 MCP(Model Control Protocol) 客户端,例如 OpenAI Codex、cline、Goose 等。这意味着你可以在你习惯的工具中,无缝地为你的模型插上联网的翅膀。

Ollama 新动作,联网搜索、MCP、云端大模型,更强了

下面是一个使用 curl 调用网页搜索的例子:

              curl -X POST "https://ollama.com/api/search"     -H "Authorization: Bearer YOUR_API_KEY"     -H "Content-Type: application/json"     -d '{       "query": "latest news on generative ai"     }'

返回的结果会包含一系列网页的标题、URL 和摘要。

我们也可以用它来构建一个简单的研究代理。比如,我们可以先搜索一个主题,然后用 fetch API 来阅读其中一篇文章的全文。

              import osfrom ollama import Clientclient = Client(    host="https://ollama.com",    headers={'Authorization': os.environ.get("OLLAMA_API_KEY")})# 1. Search the websearch_results = client.search(query="What is the latest news on Qwen3-VL?")if not search_results:    print("No search results found.")else:    # 2. Fetch the content of the first result    first_url = search_results[0]['url']    fetched_content = client.fetch(url=first_url)    # 3. Use a model to summarize the content    summary_response = client.chat(        model='qwen3:7b', # Using a local model for summarization        messages=[            {                'role': 'system',                'content': 'You are a helpful assistant that summarizes web pages.'            },            {                'role': 'user',                'content': f"Please summarize the following content:{fetched_content['content']}"            }        ]    )    print(summary_response['message']['content'])

这个功能极大地扩展了 Ollama 的应用场景,让我们可以构建出能够实时获取信息的智能体。

总的来说,Ollama 的这两个更新都非常实用。免费的云端视觉模型和网页搜索 API,让普通开发者也能轻松用上最前沿的 AI 能力。我非常期待看到社区里会出现哪些有趣的应用。

好了,今天的分享就到这里。我们下篇文章再见!

制作不易,如果这篇文章觉得对你有用,可否点个关注。给我个三连击:点赞、转发和在看。若可以再给我加个,谢谢你看我的文章,我们下篇再见!

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap