某基流动获取免费apikey,让openclaw调用
打开模型广场。由于 SiliconFlow 的页面是基于 React 渲染的,模型名称通常嵌套在复杂的样式组件中。尝试这个,它会搜索页面上所有包含模型标识符的文本。
·
打开模型广场。由于 SiliconFlow 的页面是基于 React 渲染的,模型名称通常嵌套在复杂的样式组件中。尝试这个更通用的增强版脚本,它会搜索页面上所有包含模型标识符的文本。
操作步骤(无需我登录):
- 请在Edge 浏览器中打开 SiliconFlow 模型列表页。
- 按下 F12(或右键点击“检查”)打开开发者工具。
- 点击 Console(控制台) 选项卡。
- 将以下代码复制并粘贴进去,按回车运行:
(function() {
const textNodes = [];
const walk = document.createTreeWalker(document.body, NodeFilter.SHOW_TEXT, null, false);
let node;
while(node = walk.nextNode()) {
const text = node.textContent.trim();
// 匹配常见的模型命名格式(如 deepseek-ai/, Qwen/, THUDM/ 等)
if (text.includes('/') && (text.includes('Qwen') || text.includes('DeepSeek') || text.includes('glm') || text.includes('THUDM'))) {
textNodes.push(text);
}
}
const uniqueModels = [...new Set(textNodes)];
console.log("检测到的模型列表:", uniqueModels);
copy(uniqueModels.join('\n'));
return uniqueModels;
前端控制台运行结果是:
[
"deepseek-ai/DeepSeek-V3.2",
"Pro/deepseek-ai/DeepSeek-V3.2",
"deepseek-ai/DeepSeek-V3.1-Terminus",
"Pro/deepseek-ai/DeepSeek-V3.1-Terminus",
"deepseek-ai/DeepSeek-R1",
"Pro/deepseek-ai/DeepSeek-R1",
"deepseek-ai/DeepSeek-V3",
"Pro/deepseek-ai/DeepSeek-V3",
"Qwen/Qwen3-VL-32B-Instruct",
"Qwen/Qwen3-VL-32B-Thinking",
"Qwen/Qwen3-VL-8B-Instruct",
"Qwen/Qwen3-VL-8B-Thinking",
"Qwen/Qwen3-VL-30B-A3B-Instruct",
"Qwen/Qwen3-VL-30B-A3B-Thinking",
"Qwen3-VL 是 Qwen 系列迄今为止最强大的视觉语言模型。该模型进行了全面升级,包括卓越的文本理解与生成、更深层次的视觉感知与推理、更长的上下文长度、增强的空间和视频动态理解,以及更强的智能体交互能力。这个推理增强的 “Thinking” 版本基于混合专家(MoE)架构构建,擅长执行操作 PC/移动设备图形用户界面、从图像生成代码以及在 STEM 领域进行高级多模态推理等任务。它原生支持 256K 上下文长度,并拥有支持 32 种语言的扩展 OCR 能力",
"Qwen/Qwen3-VL-235B-A22B-Instruct",
"Qwen/Qwen3-VL-235B-A22B-Thinking",
"Qwen/Qwen3-Omni-30B-A3B-Instruct",
"Qwen/Qwen3-Omni-30B-A3B-Thinking",
"Qwen/Qwen3-Omni-30B-A3B-Captioner",
"deepseek-ai/DeepSeek-OCR",
"Qwen/Qwen3-Next-80B-A3B-Instruct",
"Qwen/Qwen3-Next-80B-A3B-Thinking",
"Qwen/Qwen-Image-Edit-2509",
"Qwen/Qwen-Image-Edit",
"Qwen/Qwen-Image",
"Qwen/Qwen3-Coder-30B-A3B-Instruct",
"Qwen/Qwen3-Coder-480B-A35B-Instruct",
"Qwen/Qwen3-30B-A3B-Thinking-2507",
"Qwen/Qwen3-30B-A3B-Instruct-2507",
"Qwen3-30B-A3B-Instruct-2507 是 Qwen3-30B-A3B 非思考模式的更新版本。这是一个拥有 305 亿总参数和 33 亿激活参数的混合专家(MoE)模型。该模型在多个方面进行了关键增强,包括显著提升了指令遵循、逻辑推理、文本理解、数学、科学、编码和工具使用等通用能力。同时,它在多语言的长尾知识覆盖范围上取得了实质性进展,并能更好地与用户在主观和开放式任务中的偏好对齐,从而能够生成更有帮助的回复和更高质量的文本。此外,该模型的长文本理解能力也增强到了 256K。此模型仅支持非思考模式,其输出中不会生成 `<think></think>` 标签",
"Qwen/Qwen3-235B-A22B-Thinking-2507",
"Qwen/Qwen3-235B-A22B-Instruct-2507",
"THUDM/GLM-4.1V-9B-Thinking",
"Pro/THUDM/GLM-4.1V-9B-Thinking",
"Tongyi-Zhiwen/QwenLong-L1-32B",
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B",
"Qwen/Qwen3-32B",
"Qwen/Qwen3-14B",
"Qwen/Qwen3-8B",
"Qwen/Qwen3-Reranker-8B",
"Qwen/Qwen3-Embedding-8B",
"Qwen/Qwen3-Reranker-4B",
"Qwen/Qwen3-Embedding-4B",
"Qwen/Qwen3-Reranker-0.6B",
"Qwen/Qwen3-Embedding-0.6B",
"THUDM/GLM-Z1-32B-0414",
"GLM-Z1-32B-0414 是一个具有深度思考能力的推理模型。该模型基于 GLM-4-32B-0414 通过冷启动和扩展强化学习开发,并在数学、代码和逻辑任务上进行了进一步训练。与基础模型相比,GLM-Z1-32B-0414 显著提升了数学能力和解决复杂任务的能力。在训练过程中,研究团队还引入了基于成对排序反馈的通用强化学习,进一步增强了模型的通用能力。虽然只有 32B 参数,但在部分任务上,其性能已能与拥有 671B 参数的 DeepSeek-R1 相媲美。通过在 AIME 24/25、LiveCodeBench、GPQA 等基准测试中的评估,该模型展现了较强的数理推理能力,能够支持解决更广泛复杂任务",
"THUDM/GLM-4-32B-0414",
"GLM-4-32B-0414 是 GLM 系列的新一代开源模型,拥有 320 亿参数。该模型性能可与 OpenAI 的 GPT 系列和 DeepSeek 的 V3/R1 系列相媲美,并支持非常用户友好的本地部署功能。GLM-4-32B-Base-0414 是在 15T 高质量数据上预训练的,包括大量推理类型的合成数据,为后续的强化学习扩展奠定了基础。在后训练阶段,除了对话场景的人类偏好对齐外,研究团队还使用拒绝采样和强化学习等技术增强了模型在指令遵循、工程代码和函数调用方面的表现,加强了代理任务所需的原子能力。GLM-4-32B-0414 在工程代码、Artifact 生成、函数调用、基于搜索的问答和报告生成等领域取得了良好的成果,部分 Benchmark 指标已接近甚至超越 GPT-4o、DeepSeek-V3-0324(671B)等更大模型的水平",
"THUDM/GLM-Z1-9B-0414",
"THUDM/GLM-4-9B-0414",
"Qwen/Qwen2.5-VL-32B-Instruct",
"Qwen/QwQ-32B",
"Qwen/Qwen2.5-VL-72B-Instruct",
"Pro/Qwen/Qwen2.5-VL-7B-Instruct",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B",
"Qwen/QVQ-72B-Preview",
"deepseek-ai/DeepSeek-V2.5",
"Qwen/Qwen2.5-Coder-32B-Instruct",
"Qwen/Qwen2-VL-72B-Instruct",
"Qwen/Qwen2.5-72B-Instruct-128K",
"DeepSeek-VL2 是一个基于 DeepSeekMoE-27B 开发的混合专家(MoE)视觉语言模型,采用稀疏激活的 MoE 架构,在仅激活 4.5B 参数的情况下实现了卓越性能。该模型在视觉问答、光学字符识别、文档/表格/图表理解和视觉定位等多个任务中表现优异,与现有的开源稠密模型和基于 MoE 的模型相比,在使用相同或更少的激活参数的情况下,实现了具有竞争力的或最先进的性能表现",
"Qwen/Qwen2.5-72B-Instruct",
"Qwen/Qwen2.5-32B-Instruct",
"Qwen/Qwen2.5-14B-Instruct",
"Qwen/Qwen2.5-7B-Instruct",
"Qwen/Qwen2.5-Coder-7B-Instruct",
"Qwen/Qwen2-7B-Instruct",
"THUDM/glm-4-9b-chat",
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct",
"Pro/Qwen/Qwen2.5-7B-Instruct",
"Pro/Qwen/Qwen2-7B-Instruct",
"Pro/THUDM/glm-4-9b-chat",
"THUDM/GLM-Z1-Rumination-32B-0414",
"Qwen/Qwen3-30B-A3B",
"Qwen/Qwen3-235B-A22B",
"deepseek-ai/DeepSeek-V3.1-0820",
"Pro/deepseek-ai/DeepSeek-V3.1-0820",
"deepseek-ai/DeepSeek-Coder-V2-Instruct",
"Qwen/Qwen2-57B-A14B-Instruct",
"deepseek-ai/DeepSeek-V2-Chat",
"Pro/deepseek-ai/DeepSeek-V3-1226",
"Pro/deepseek-ai/DeepSeek-R1-0120",
"Qwen/QwQ-32B-Preview",
"Qwen/Qwen2-1.5B-Instruct",
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B",
"THUDM/chatglm3-6b",
"Pro/Qwen/Qwen2-VL-7B-Instruct",
"Pro/Qwen/Qwen2-1.5B-Instruct",
"Vendor-A/Qwen/Qwen2-72B-Instruct",
"Vendor-A/Qwen/Qwen2.5-72B-Instruct",
"Qwen/Qwen1.5-14B-Chat",
"Qwen/Qwen1.5-110B-Chat",
"Qwen/Qwen1.5-7B-Chat",
"Qwen/Qwen1.5-32B-Chat",
"Pro/Qwen/Qwen1.5-7B-Chat",
"Qwen/Qwen2-72B-Instruct",
"Qwen/Qwen2.5-Math-72B-Instruct",
"Pro/THUDM/chatglm3-6b",
"Qwen/Qwen2-Math-72B-Instruct",
"self.__next_f.push([1,\"
以下是整理的 2026年2月最新免费模型清单及对比报告:
1. 完整免费模型清单 (共 15 个)
A. DeepSeek 系列 (4 个免费模型)
deepseek-ai/DeepSeek-V3(最新旗舰通用,逻辑极强)deepseek-ai/DeepSeek-R1(推理增强,深度思考)deepseek-ai/DeepSeek-V2.5(综合性能平衡)deepseek-ai/DeepSeek-Coder-V2-Instruct(代码开发专项)
B. ZhipuAI / 智谱 (5 个免费模型)
THUDM/glm-4-9b-chat(经典 9B 对话模型)THUDM/GLM-4.1V-9B-Thinking(最新视觉推理版,支持看图)THUDM/chatglm3-6b(轻量化极速响应)THUDM/GLM-4-9B-0414(智谱新一代开源基座)THUDM/GLM-Z1-9B-0414(轻量化推理增强版)
C. Qwen / 通义千问 (6 个免费模型)
Qwen/Qwen2.5-7B-Instruct(OpenClaw 结构化抓取首选)Qwen/Qwen2.5-32B-Instruct(高性能版,能力接近闭源大模型)Qwen/Qwen2.5-Coder-7B-Instruct(代码助手版)Qwen/Qwen2-7B-Instruct(稳定经典款)Qwen/Qwen2-1.5B-Instruct(极致速度,适合简单文本过滤)Qwen/Qwen1.5-7B-Chat(旧业务兼容首选)
2. OpenClaw 调用建议 (日调用 1000+)
为了确保您每天上千次调用的稳定性,请参考以下方案:
- 首选主模型:
Qwen/Qwen2.5-7B-Instruct- 理由: 它是目前免费模型中 RPM(每分钟请求数)限制最宽松、响应最快的模型,免费云服务器处理 1000+ 请求时总延迟最低。
- 视觉任务:
THUDM/GLM-4.1V-9B-Thinking- 用途: 如果三丰云运行OpenClaw 需要识别网页验证码、截图或 UI 元素,请调用此模型。
- 负载均衡设置:
- 在 OpenClaw 中配置 API 轮询。建议顺序:
Qwen2.5-7B->DeepSeek-V3->GLM-4-9B。这样可以有效分摊单一模型高峰期的限流压力。
- 在 OpenClaw 中配置 API 轮询。建议顺序:
更多推荐

所有评论(0)