InkCop 手册

配置 AI 服务

选择和配置大语言模型服务商

InkCop 的 AI 功能依赖大语言模型(LLM)服务。你需要至少配置一个服务商才能使用 AI 对话、自动补全、知识库搜索等功能。

支持的服务商

InkCop 支持 16+ 种 LLM 服务商,覆盖国内外主流平台:

国内服务商

服务商推荐模型特点
阿里云百炼qwen3-235b-a22b中文能力强,支持多模态、Embedding
DeepSeekdeepseek-reasoner推理能力突出,性价比高
Moonshot(Kimi)kimi-latest长上下文支持好,中文友好
智谱 GLMglm-4.7国产大模型,工具调用稳定
字节豆包doubao-seed-1.6多模态支持,价格友好
MiniMaxMiniMax-M1文本生成质量高
硅基流动多模型聚合聚合多个开源模型

国际服务商

服务商推荐模型特点
OpenAIgpt-4o综合能力最强,英文写作出色
Anthropicclaude-4-sonnet长文本处理优秀,学术写作佳
Google Geminigemini-2.5-pro多模态能力强
Grokgrok-4-0709推理能力强
Azure OpenAI同 OpenAI 模型企业级合规部署
OpenRouter多模型聚合一个 Key 访问多种模型
Nvidia NIM多模型GPU 优化推理

本地部署

方案说明
Ollama一键部署开源模型(Qwen、Llama等),完全离线可用
内置 Llama 服务InkCop 内置的本地推理引擎,无需额外安装

配置步骤

1. 打开 LLM 设置

点击左侧导航栏底部的 设置 图标 → AILLM 服务商

2. 选择并启用服务商

  1. 在服务商列表中找到你要使用的服务商
  2. 点击进入配置页面
  3. 填写以下信息:
    • API Key:从服务商控制台获取
    • Base URL:通常已预填,特殊部署可修改
    • 模型:选择或输入模型名称
  4. 点击 测试连接 确认配置正确
  5. 开启 启用 开关

每个服务商配置页面都有 帮助链接,点击可直接跳转到该服务商的 API Key 获取页面。

3. 配置 Embedding 模型(可选)

如果你需要使用知识库的语义搜索功能,还需要配置 Embedding(向量化)模型:

  1. 进入 设置 > 记忆 > 知识库设置
  2. 配置 Embedding 服务的 Base URL 和 API Key
  3. 选择 Embedding 模型(如 text-embedding-v4
  4. 测试维度检测是否正常

4. 配置搜索引擎(可选)

如果需要 AI 助手具备联网搜索能力:

  1. 进入 设置 > 集成 > 搜索引擎
  2. 配置 Tavily、Brave 或其他搜索服务的 API Key
  3. 选择默认搜索引擎

推荐配置方案

方案一:高性价比(推荐新手)

  • 主模型:DeepSeek deepseek-chat(对话)+ deepseek-reasoner(推理)
  • Embedding:阿里云百炼 text-embedding-v4
  • 优势:成本低,中文能力好,上手简单

方案二:最佳体验

  • 主模型:Anthropic claude-4-sonnet 或 OpenAI gpt-4o
  • Embedding:OpenAI text-embedding-3-large
  • 搜索:Tavily
  • 优势:综合能力最强,英文论文写作最佳

方案三:完全离线

  • 主模型:Ollama + Qwen3-32B
  • Embedding:Ollama + nomic-embed-text
  • 优势:无需联网,数据完全私有

使用本地模型需要较强的硬件配置(推荐 16GB+ 显存的 GPU)。如果你的设备性能有限,建议使用云端服务。