-
Notifications
You must be signed in to change notification settings - Fork 2.9k
Expand file tree
/
Copy pathenv.local.example
More file actions
163 lines (133 loc) · 6.73 KB
/
env.local.example
File metadata and controls
163 lines (133 loc) · 6.73 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
# 环境变量配置示例文件
# 将此文件复制为 .env.local 并填入你的实际配置
# ===== LLM API 密钥配置 =====
# 配置您要使用的 LLM 服务的 API 密钥
# 不同模块会根据需要使用这些配置
# OpenAI API 配置
# VITE_OPENAI_API_KEY=sk-your-openai-api-key-here
# Google Gemini API 配置
# VITE_GEMINI_API_KEY=your-gemini-api-key-here
# Anthropic Claude API 配置
# VITE_ANTHROPIC_API_KEY=your-anthropic-api-key-here
# ===== 图像生成 API 密钥配置 =====
# Gemini 图像生成复用 VITE_GEMINI_API_KEY(无需单独配置)
# Seedream (Doubao) / 火山方舟 ARK API Key(任选其一变量,优先级从上到下)
# VITE_SEEDREAM_API_KEY=your-seedream-api-key-here
# VITE_ARK_API_KEY=your-ark-api-key-here
# (也兼容进程环境变量 ARK_API_KEY,但推荐统一使用 VITE_ 前缀)
# DeepSeek API 配置
# VITE_DEEPSEEK_API_KEY=sk-your-deepseek-api-key-here
# 智谱 AI API 配置
# VITE_ZHIPU_API_KEY=your-zhipu-api-key-here
# MiniMax API 配置
# VITE_MINIMAX_API_KEY=your-minimax-api-key-here
# SiliconFlow API 配置
# VITE_SILICONFLOW_API_KEY=sk-your-siliconflow-api-key-here
# ModelScope (魔搭) API 配置 - 每天免费 2000 次调用
# 支持文本模型(LLM)和图像生成模型
# VITE_MODELSCOPE_API_KEY=your-modelscope-sdk-token-here
# 自定义 API 配置(如 Ollama 本地服务)
# VITE_CUSTOM_API_KEY=your-custom-api-key
# VITE_CUSTOM_API_BASE_URL=http://localhost:11434/v1
# VITE_CUSTOM_API_MODEL=qwen2.5:0.5b
# ===== 多自定义模型配置(新功能)=====
# 支持配置无限数量的自定义模型,使用后缀区分不同模型
# 格式:VITE_CUSTOM_API_*_<suffix>
# 后缀规则:只能包含字母(a-z A-Z)、数字(0-9)、下划线(_)、连字符(-)
# 不支持:点号(.)、空格、特殊符号等
# Ollama Qwen 模型示例
# VITE_CUSTOM_API_KEY_qwen3=ollama-qwen3-key
# VITE_CUSTOM_API_BASE_URL_qwen3=http://localhost:11434/v1
# VITE_CUSTOM_API_MODEL_qwen3=qwen3:8b
# Ollama Qwen2.5 模型示例(注意:版本号用下划线分隔)
# VITE_CUSTOM_API_KEY_qwen2_5=ollama-qwen25-key
# VITE_CUSTOM_API_BASE_URL_qwen2_5=http://localhost:11434/v1
# VITE_CUSTOM_API_MODEL_qwen2_5=qwen2.5:14b
# 本地 Claude 兼容服务示例
# VITE_CUSTOM_API_KEY_claude_local=claude-local-key
# VITE_CUSTOM_API_BASE_URL_claude_local=http://localhost:8080/v1
# VITE_CUSTOM_API_MODEL_claude_local=claude-3-sonnet
# VITE_CUSTOM_API_PARAMS_claude_local={"temperature":0.3,"top_p":0.8}
# 其他自建 API 服务示例
# VITE_CUSTOM_API_KEY_my_llm=my-llm-api-key
# VITE_CUSTOM_API_BASE_URL_my_llm=https://my-api.example.com/v1
# VITE_CUSTOM_API_MODEL_my_llm=my-custom-model
# VITE_CUSTOM_API_PARAMS_my_llm={"temperature":0.7,"top_p":0.9,"max_tokens":4096}
# ===== 自定义模型额外请求参数(可选)=====
# 格式:VITE_CUSTOM_API_PARAMS_<suffix>=<JSON对象字符串>
# 这些参数会直接注入到 OpenAI 兼容请求体中,适用于标准参数和供应商特有参数
# 注意:
# - 必须是 JSON 对象字符串,不能是数组或其他 JSON 类型
# - 不可覆盖 model、messages、stream 这三个保留字段
# - 如需在 Docker Compose 中书写复杂 JSON,建议用单引号包裹整个值
#
# NVIDIA NIM 启用 thinking 模式示例
# VITE_CUSTOM_API_PARAMS_nvidia={"chat_template_kwargs":{"enable_thinking":true},"temperature":0.6,"top_p":0.95,"max_tokens":16384}
# 注意:
# - 以下三项均为必填:API_KEY、BASE_URL、MODEL(与核心实现严格一致)
# - 生成的模型在UI中显示为格式化的名称(如 qwen3 → Qwen3)
# ===== MCP 服务器配置 =====
# 以下配置仅在使用 MCP 服务器时需要
# 首选模型提供商(当配置了多个 API 密钥时)
# 可选值:openai, gemini, anthropic, deepseek, siliconflow, zhipu, dashscope, openrouter, modelscope, custom, custom_<suffix>
# 注意:必须与上面配置的 API 密钥对应
# 示例:如果配置了 VITE_CUSTOM_API_KEY_qwen3,可以使用 custom_qwen3
# MCP_DEFAULT_MODEL_PROVIDER=openai
# HTTP 服务器端口(默认 3000)
# MCP_HTTP_PORT=3000
# 日志级别(默认 debug)
# 可选值:debug, info, warn, error
# MCP_LOG_LEVEL=debug
# 默认语言(默认 zh)
# 可选值:zh, en
# MCP_DEFAULT_LANGUAGE=zh
# ===== Docker 部署访问控制配置 =====
# 以下配置仅在 Docker 部署时需要,用于设置 Web 界面的访问控制
# 访问用户名(可选,默认为 admin)
# ACCESS_USERNAME=admin
# 访问密码(可选,不设置则无密码保护)
# ACCESS_PASSWORD=your_password
# ===== 开发环境更新测试配置 =====
# 取消注释以下配置来启用开发环境的更新测试功能
# 方式1:使用 GITHUB_REPOSITORY 环境变量(推荐)
# GITHUB_REPOSITORY=your-username/your-repo-name
# 方式2:分别设置仓库所有者和名称
# DEV_REPO_OWNER=your-username
# DEV_REPO_NAME=your-repo-name
# ===== 使用说明 =====
#
# LLM API 密钥:
# 1. 使用 VITE_ 前缀的环境变量,支持所有模块(Web、Desktop、MCP 服务器等)
# 2. 根据使用的功能配置相应的 API 密钥
# 3. 自定义 API 支持本地服务(如 Ollama)和其他兼容 OpenAI 格式的服务
# 4. 多自定义模型:使用 VITE_CUSTOM_API_*_<suffix> 格式配置多个自定义模型
# - 支持无限数量的自定义模型
# - 每个模型在UI中显示为独立选项
# - 后缀名会自动格式化为友好的显示名称
# - 可选使用 VITE_CUSTOM_API_PARAMS_<suffix> 追加额外请求参数
#
# MCP 服务器(仅在使用 MCP 功能时需要):
# 1. 需要至少配置一个 API 密钥才能启动
# 2. 在项目根目录执行 pnpm mcp:dev 启动开发服务器
# 3. 如果配置多个 API 密钥,可通过 MCP_DEFAULT_MODEL_PROVIDER 指定首选
# 4. MCP_DEFAULT_MODEL_PROVIDER 支持的值:
# - openai: 使用 OpenAI GPT 模型
# - gemini: 使用 Google Gemini 模型
# - deepseek: 使用 DeepSeek 模型
# - siliconflow: 使用 SiliconFlow 模型
# - zhipu: 使用智谱 AI 模型
# - custom: 使用自定义 API(如 Ollama 等)
# - custom_<suffix>: 使用特定的多自定义模型(如 custom_qwen3)
# 5. HTTP 模式默认端口 3000,可通过 MCP_HTTP_PORT 修改
# 6. 默认启用 debug 日志,可通过 MCP_LOG_LEVEL 调整
#
# Docker 部署访问控制:
# 1. ACCESS_USERNAME 和 ACCESS_PASSWORD 仅在 Docker 部署时使用
# 2. 不设置密码则无访问限制
# 3. 设置密码后访问 Web 界面需要输入用户名和密码
#
# 更新测试(仅在开发环境需要):
# 1. 只支持公开仓库,不支持私有仓库
# 2. 如果不设置仓库配置,将使用默认的公开仓库 (linshenkx/prompt-optimizer)
# 3. 开发环境现在默认支持更新测试,无需额外配置文件
# 4. 更新日志将保存在用户数据目录的 logs/auto-updater.log 文件中