打开模型广场。由于 SiliconFlow 的页面是基于 React 渲染的,模型名称通常嵌套在复杂的样式组件中。尝试这个更通用的增强版脚本,它会搜索页面上所有包含模型标识符的文本。

操作步骤(无需我登录):

  1. 请在Edge 浏览器中打开 SiliconFlow 模型列表页。
  2. 按下 F12(或右键点击“检查”)打开开发者工具。
  3. 点击 Console(控制台) 选项卡。
  4. 将以下代码复制并粘贴进去,按回车运行:
(function() {
    const textNodes = [];
    const walk = document.createTreeWalker(document.body, NodeFilter.SHOW_TEXT, null, false);
    let node;
    while(node = walk.nextNode()) {
        const text = node.textContent.trim();
        // 匹配常见的模型命名格式(如 deepseek-ai/, Qwen/, THUDM/ 等)
        if (text.includes('/') && (text.includes('Qwen') || text.includes('DeepSeek') || text.includes('glm') || text.includes('THUDM'))) {
            textNodes.push(text);
        }
    }
    const uniqueModels = [...new Set(textNodes)];
    console.log("检测到的模型列表:", uniqueModels);
    copy(uniqueModels.join('\n'));
    return uniqueModels;

前端控制台运行结果是:

[
    "deepseek-ai/DeepSeek-V3.2",
    "Pro/deepseek-ai/DeepSeek-V3.2",
    "deepseek-ai/DeepSeek-V3.1-Terminus",
    "Pro/deepseek-ai/DeepSeek-V3.1-Terminus",
    "deepseek-ai/DeepSeek-R1",
    "Pro/deepseek-ai/DeepSeek-R1",
    "deepseek-ai/DeepSeek-V3",
    "Pro/deepseek-ai/DeepSeek-V3",
    "Qwen/Qwen3-VL-32B-Instruct",
    "Qwen/Qwen3-VL-32B-Thinking",
    "Qwen/Qwen3-VL-8B-Instruct",
    "Qwen/Qwen3-VL-8B-Thinking",
    "Qwen/Qwen3-VL-30B-A3B-Instruct",
    "Qwen/Qwen3-VL-30B-A3B-Thinking",
    "Qwen3-VL 是 Qwen 系列迄今为止最强大的视觉语言模型。该模型进行了全面升级,包括卓越的文本理解与生成、更深层次的视觉感知与推理、更长的上下文长度、增强的空间和视频动态理解,以及更强的智能体交互能力。这个推理增强的 “Thinking” 版本基于混合专家(MoE)架构构建,擅长执行操作 PC/移动设备图形用户界面、从图像生成代码以及在 STEM 领域进行高级多模态推理等任务。它原生支持 256K 上下文长度,并拥有支持 32 种语言的扩展 OCR 能力",
    "Qwen/Qwen3-VL-235B-A22B-Instruct",
    "Qwen/Qwen3-VL-235B-A22B-Thinking",
    "Qwen/Qwen3-Omni-30B-A3B-Instruct",
    "Qwen/Qwen3-Omni-30B-A3B-Thinking",
    "Qwen/Qwen3-Omni-30B-A3B-Captioner",
    "deepseek-ai/DeepSeek-OCR",
    "Qwen/Qwen3-Next-80B-A3B-Instruct",
    "Qwen/Qwen3-Next-80B-A3B-Thinking",
    "Qwen/Qwen-Image-Edit-2509",
    "Qwen/Qwen-Image-Edit",
    "Qwen/Qwen-Image",
    "Qwen/Qwen3-Coder-30B-A3B-Instruct",
    "Qwen/Qwen3-Coder-480B-A35B-Instruct",
    "Qwen/Qwen3-30B-A3B-Thinking-2507",
    "Qwen/Qwen3-30B-A3B-Instruct-2507",
    "Qwen3-30B-A3B-Instruct-2507 是 Qwen3-30B-A3B 非思考模式的更新版本。这是一个拥有 305 亿总参数和 33 亿激活参数的混合专家(MoE)模型。该模型在多个方面进行了关键增强,包括显著提升了指令遵循、逻辑推理、文本理解、数学、科学、编码和工具使用等通用能力。同时,它在多语言的长尾知识覆盖范围上取得了实质性进展,并能更好地与用户在主观和开放式任务中的偏好对齐,从而能够生成更有帮助的回复和更高质量的文本。此外,该模型的长文本理解能力也增强到了 256K。此模型仅支持非思考模式,其输出中不会生成 `<think></think>` 标签",
    "Qwen/Qwen3-235B-A22B-Thinking-2507",
    "Qwen/Qwen3-235B-A22B-Instruct-2507",
    "THUDM/GLM-4.1V-9B-Thinking",
    "Pro/THUDM/GLM-4.1V-9B-Thinking",
    "Tongyi-Zhiwen/QwenLong-L1-32B",
    "deepseek-ai/DeepSeek-R1-0528-Qwen3-8B",
    "Qwen/Qwen3-32B",
    "Qwen/Qwen3-14B",
    "Qwen/Qwen3-8B",
    "Qwen/Qwen3-Reranker-8B",
    "Qwen/Qwen3-Embedding-8B",
    "Qwen/Qwen3-Reranker-4B",
    "Qwen/Qwen3-Embedding-4B",
    "Qwen/Qwen3-Reranker-0.6B",
    "Qwen/Qwen3-Embedding-0.6B",
    "THUDM/GLM-Z1-32B-0414",
    "GLM-Z1-32B-0414 是一个具有深度思考能力的推理模型。该模型基于 GLM-4-32B-0414 通过冷启动和扩展强化学习开发,并在数学、代码和逻辑任务上进行了进一步训练。与基础模型相比,GLM-Z1-32B-0414 显著提升了数学能力和解决复杂任务的能力。在训练过程中,研究团队还引入了基于成对排序反馈的通用强化学习,进一步增强了模型的通用能力。虽然只有 32B 参数,但在部分任务上,其性能已能与拥有 671B 参数的 DeepSeek-R1 相媲美。通过在 AIME 24/25、LiveCodeBench、GPQA 等基准测试中的评估,该模型展现了较强的数理推理能力,能够支持解决更广泛复杂任务",
    "THUDM/GLM-4-32B-0414",
    "GLM-4-32B-0414 是 GLM 系列的新一代开源模型,拥有 320 亿参数。该模型性能可与 OpenAI 的 GPT 系列和 DeepSeek 的 V3/R1 系列相媲美,并支持非常用户友好的本地部署功能。GLM-4-32B-Base-0414 是在 15T 高质量数据上预训练的,包括大量推理类型的合成数据,为后续的强化学习扩展奠定了基础。在后训练阶段,除了对话场景的人类偏好对齐外,研究团队还使用拒绝采样和强化学习等技术增强了模型在指令遵循、工程代码和函数调用方面的表现,加强了代理任务所需的原子能力。GLM-4-32B-0414 在工程代码、Artifact 生成、函数调用、基于搜索的问答和报告生成等领域取得了良好的成果,部分 Benchmark 指标已接近甚至超越 GPT-4o、DeepSeek-V3-0324(671B)等更大模型的水平",
    "THUDM/GLM-Z1-9B-0414",
    "THUDM/GLM-4-9B-0414",
    "Qwen/Qwen2.5-VL-32B-Instruct",
    "Qwen/QwQ-32B",
    "Qwen/Qwen2.5-VL-72B-Instruct",
    "Pro/Qwen/Qwen2.5-VL-7B-Instruct",
    "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B",
    "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B",
    "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B",
    "Qwen/QVQ-72B-Preview",
    "deepseek-ai/DeepSeek-V2.5",
    "Qwen/Qwen2.5-Coder-32B-Instruct",
    "Qwen/Qwen2-VL-72B-Instruct",
    "Qwen/Qwen2.5-72B-Instruct-128K",
    "DeepSeek-VL2 是一个基于 DeepSeekMoE-27B 开发的混合专家(MoE)视觉语言模型,采用稀疏激活的 MoE 架构,在仅激活 4.5B 参数的情况下实现了卓越性能。该模型在视觉问答、光学字符识别、文档/表格/图表理解和视觉定位等多个任务中表现优异,与现有的开源稠密模型和基于 MoE 的模型相比,在使用相同或更少的激活参数的情况下,实现了具有竞争力的或最先进的性能表现",
    "Qwen/Qwen2.5-72B-Instruct",
    "Qwen/Qwen2.5-32B-Instruct",
    "Qwen/Qwen2.5-14B-Instruct",
    "Qwen/Qwen2.5-7B-Instruct",
    "Qwen/Qwen2.5-Coder-7B-Instruct",
    "Qwen/Qwen2-7B-Instruct",
    "THUDM/glm-4-9b-chat",
    "Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B",
    "Pro/Qwen/Qwen2.5-Coder-7B-Instruct",
    "Pro/Qwen/Qwen2.5-7B-Instruct",
    "Pro/Qwen/Qwen2-7B-Instruct",
    "Pro/THUDM/glm-4-9b-chat",
    "THUDM/GLM-Z1-Rumination-32B-0414",
    "Qwen/Qwen3-30B-A3B",
    "Qwen/Qwen3-235B-A22B",
    "deepseek-ai/DeepSeek-V3.1-0820",
    "Pro/deepseek-ai/DeepSeek-V3.1-0820",
    "deepseek-ai/DeepSeek-Coder-V2-Instruct",
    "Qwen/Qwen2-57B-A14B-Instruct",
    "deepseek-ai/DeepSeek-V2-Chat",
    "Pro/deepseek-ai/DeepSeek-V3-1226",
    "Pro/deepseek-ai/DeepSeek-R1-0120",
    "Qwen/QwQ-32B-Preview",
    "Qwen/Qwen2-1.5B-Instruct",
    "Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B",
    "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B",
    "THUDM/chatglm3-6b",
    "Pro/Qwen/Qwen2-VL-7B-Instruct",
    "Pro/Qwen/Qwen2-1.5B-Instruct",
    "Vendor-A/Qwen/Qwen2-72B-Instruct",
    "Vendor-A/Qwen/Qwen2.5-72B-Instruct",
    "Qwen/Qwen1.5-14B-Chat",
    "Qwen/Qwen1.5-110B-Chat",
    "Qwen/Qwen1.5-7B-Chat",
    "Qwen/Qwen1.5-32B-Chat",
    "Pro/Qwen/Qwen1.5-7B-Chat",
    "Qwen/Qwen2-72B-Instruct",
    "Qwen/Qwen2.5-Math-72B-Instruct",
    "Pro/THUDM/chatglm3-6b",
    "Qwen/Qwen2-Math-72B-Instruct",
    "self.__next_f.push([1,\"

以下是整理的 2026年2月最新免费模型清单及对比报告


1. 完整免费模型清单 (共 15 个)

A. DeepSeek 系列 (4 个免费模型)
  • deepseek-ai/DeepSeek-V3 (最新旗舰通用,逻辑极强)
  • deepseek-ai/DeepSeek-R1 (推理增强,深度思考)
  • deepseek-ai/DeepSeek-V2.5 (综合性能平衡)
  • deepseek-ai/DeepSeek-Coder-V2-Instruct (代码开发专项)
B. ZhipuAI / 智谱 (5 个免费模型)
  • THUDM/glm-4-9b-chat (经典 9B 对话模型)
  • THUDM/GLM-4.1V-9B-Thinking (最新视觉推理版,支持看图)
  • THUDM/chatglm3-6b (轻量化极速响应)
  • THUDM/GLM-4-9B-0414 (智谱新一代开源基座)
  • THUDM/GLM-Z1-9B-0414 (轻量化推理增强版)
C. Qwen / 通义千问 (6 个免费模型)
  • Qwen/Qwen2.5-7B-Instruct (OpenClaw 结构化抓取首选)
  • Qwen/Qwen2.5-32B-Instruct (高性能版,能力接近闭源大模型)
  • Qwen/Qwen2.5-Coder-7B-Instruct (代码助手版)
  • Qwen/Qwen2-7B-Instruct (稳定经典款)
  • Qwen/Qwen2-1.5B-Instruct (极致速度,适合简单文本过滤)
  • Qwen/Qwen1.5-7B-Chat (旧业务兼容首选)

2. OpenClaw 调用建议 (日调用 1000+)

为了确保您每天上千次调用的稳定性,请参考以下方案:

  1. 首选主模型:Qwen/Qwen2.5-7B-Instruct
    • 理由: 它是目前免费模型中 RPM(每分钟请求数)限制最宽松、响应最快的模型,免费云服务器处理 1000+ 请求时总延迟最低。
  2. 视觉任务:THUDM/GLM-4.1V-9B-Thinking
    • 用途: 如果三丰云运行OpenClaw 需要识别网页验证码、截图或 UI 元素,请调用此模型。
  3. 负载均衡设置:
    • 在 OpenClaw 中配置 API 轮询。建议顺序:Qwen2.5-7B -> DeepSeek-V3 -> GLM-4-9B。这样可以有效分摊单一模型高峰期的限流压力。
Logo

Agent 垂直技术社区,欢迎活跃、内容共建。

更多推荐