配置 AI 服务
选择和配置大语言模型服务商
InkCop 的 AI 功能依赖大语言模型(LLM)服务。你需要至少配置一个服务商才能使用 AI 对话、自动补全、知识库搜索等功能。
支持的服务商
InkCop 支持 16+ 种 LLM 服务商,覆盖国内外主流平台:
国内服务商
| 服务商 | 推荐模型 | 特点 |
|---|---|---|
| 阿里云百炼 | qwen3-235b-a22b | 中文能力强,支持多模态、Embedding |
| DeepSeek | deepseek-reasoner | 推理能力突出,性价比高 |
| Moonshot(Kimi) | kimi-latest | 长上下文支持好,中文友好 |
| 智谱 GLM | glm-4.7 | 国产大模型,工具调用稳定 |
| 字节豆包 | doubao-seed-1.6 | 多模态支持,价格友好 |
| MiniMax | MiniMax-M1 | 文本生成质量高 |
| 硅基流动 | 多模型聚合 | 聚合多个开源模型 |
国际服务商
| 服务商 | 推荐模型 | 特点 |
|---|---|---|
| OpenAI | gpt-4o | 综合能力最强,英文写作出色 |
| Anthropic | claude-4-sonnet | 长文本处理优秀,学术写作佳 |
| Google Gemini | gemini-2.5-pro | 多模态能力强 |
| Grok | grok-4-0709 | 推理能力强 |
| Azure OpenAI | 同 OpenAI 模型 | 企业级合规部署 |
| OpenRouter | 多模型聚合 | 一个 Key 访问多种模型 |
| Nvidia NIM | 多模型 | GPU 优化推理 |
本地部署
| 方案 | 说明 |
|---|---|
| Ollama | 一键部署开源模型(Qwen、Llama等),完全离线可用 |
| 内置 Llama 服务 | InkCop 内置的本地推理引擎,无需额外安装 |
配置步骤
1. 打开 LLM 设置
点击左侧导航栏底部的 设置 图标 → AI → LLM 服务商
2. 选择并启用服务商
- 在服务商列表中找到你要使用的服务商
- 点击进入配置页面
- 填写以下信息:
- API Key:从服务商控制台获取
- Base URL:通常已预填,特殊部署可修改
- 模型:选择或输入模型名称
- 点击 测试连接 确认配置正确
- 开启 启用 开关
每个服务商配置页面都有 帮助链接,点击可直接跳转到该服务商的 API Key 获取页面。
3. 配置 Embedding 模型(可选)
如果你需要使用知识库的语义搜索功能,还需要配置 Embedding(向量化)模型:
- 进入 设置 > 记忆 > 知识库设置
- 配置 Embedding 服务的 Base URL 和 API Key
- 选择 Embedding 模型(如
text-embedding-v4) - 测试维度检测是否正常
4. 配置搜索引擎(可选)
如果需要 AI 助手具备联网搜索能力:
- 进入 设置 > 集成 > 搜索引擎
- 配置 Tavily、Brave 或其他搜索服务的 API Key
- 选择默认搜索引擎
推荐配置方案
方案一:高性价比(推荐新手)
- 主模型:DeepSeek deepseek-chat(对话)+ deepseek-reasoner(推理)
- Embedding:阿里云百炼 text-embedding-v4
- 优势:成本低,中文能力好,上手简单
方案二:最佳体验
- 主模型:Anthropic claude-4-sonnet 或 OpenAI gpt-4o
- Embedding:OpenAI text-embedding-3-large
- 搜索:Tavily
- 优势:综合能力最强,英文论文写作最佳
方案三:完全离线
- 主模型:Ollama + Qwen3-32B
- Embedding:Ollama + nomic-embed-text
- 优势:无需联网,数据完全私有
使用本地模型需要较强的硬件配置(推荐 16GB+ 显存的 GPU)。如果你的设备性能有限,建议使用云端服务。