LLM_MODEL_TYPE
: 选择大语言模型的提供商类型
"api"
或 "ollama"
"api"
"api"
"api"
时,必须设置 API_LLM_MODEL
"ollama"
时,将使用 OLLAMA_LLM_CONFIG
配置EMBEDDING_MODEL_TYPE
: 选择嵌入模型的提供商类型
"api"
或 "ollama"
"ollama"
"ollama"
"api"
时,使用 API_EMBEDDING_CONFIG
"ollama"
时,使用 OLLAMA_EMBEDDING_CONFIG
API_LLM_MODEL
: 当 LLM_MODEL_TYPE="api"
时使用的模型
"qianwen"
或 "deepseek"
"deepseek"
"deepseek"
"qianwen"
时,使用 API_QIANWEN_CONFIG
"deepseek"
时,使用 API_DEEPSEEK_CONFIG
VECTOR_DB_TYPE
: 选择向量数据库类型
"chromadb"
或 "pgvector"
"pgvector"
"pgvector"
"chromadb"
时,使用本地文件存储"pgvector"
时,使用 PGVECTOR_CONFIG
配置API_DEEPSEEK_CONFIG
)api_key
: DeepSeek API密钥(从环境变量 DEEPSEEK_API_KEY
读取)
"sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx"
model
: 模型版本
"deepseek-reasoner"
或 "deepseek-chat"
"deepseek-reasoner"
"deepseek-reasoner"
allow_llm_to_see_data
: 是否允许模型查看数据
True
或 False
True
True
temperature
: 温度参数,控制创造性
0.0
到 1.0
0.6
0.6
n_results
: 返回结果数量
6
6
language
: 语言设置
"Chinese"
"Chinese"
stream
: 是否使用流式输出
True
或 False
True
True
enable_thinking
: 是否启用思考功能(需要 stream=True
)
True
或 False
True
True
API_QIANWEN_CONFIG
)api_key
: 千问API密钥(从环境变量 QWEN_API_KEY
读取)
"sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx"
model
: 模型版本
"qwen3-235b-a22b"
, "qwen3-30b-a3b"
, "qwen-plus-latest"
, "qwen-plus"
"qwen3-235b-a22b"
"qwen3-235b-a22b"
allow_llm_to_see_data
: 是否允许模型查看数据
True
或 False
True
True
temperature
: 温度参数
0.0
到 1.0
0.7
0.7
n_results
: 返回结果数量
6
6
language
: 语言设置
"Chinese"
"Chinese"
stream
: 是否使用流式输出
True
或 False
True
True
enable_thinking
: 是否启用思考功能(需要 stream=True
)
True
或 False
True
True
OLLAMA_LLM_CONFIG
)base_url
: Ollama服务地址
"http://192.168.3.204:11434"
"http://localhost:11434"
model
: Ollama模型名称
"qwen3:32b"
, "deepseek-r1:32b"
"qwen3:32b"
allow_llm_to_see_data
: 是否允许模型查看数据
True
或 False
True
True
temperature
: 温度参数
0.0
到 1.0
0.7
0.7
n_results
: 返回结果数量
6
6
language
: 语言设置
"Chinese"
"Chinese"
timeout
: 超时时间(秒)
60
60
stream
: 是否使用流式输出
True
或 False
True
True
enable_thinking
: 是否启用思考功能
True
或 False
True
True
num_ctx
: 上下文长度(可选)
4096
4096
num_predict
: 预测token数量(可选)
-1
(无限制)-1
repeat_penalty
: 重复惩罚(可选)
1.1
1.1
auto_check_connection
: 是否自动检查连接(可选)
True
或 False
True
True
OLLAMA_EMBEDDING_CONFIG
)base_url
: Ollama服务地址
"http://192.168.3.204:11434"
"http://localhost:11434"
model_name
: Embedding模型名称
"bge-m3:567m"
"bge-m3:567m"
embedding_dimension
: 向量维度
1024
1024
API_EMBEDDING_CONFIG
)model_name
: 模型名称
"BAAI/bge-m3"
, "text-embedding-v4"
"BAAI/bge-m3"
api_key
: API密钥(从环境变量 EMBEDDING_API_KEY
读取)
"sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx"
base_url
: API基础URL(从环境变量 EMBEDDING_BASE_URL
读取)
"https://api.example.com/v1"
embedding_dimension
: 向量维度
1024
1024
APP_DB_CONFIG
)host
: 数据库主机地址
"192.168.67.1"
port
: 数据库端口
5432
dbname
: 数据库名称
"bank_db"
user
: 用户名(从环境变量 APP_DB_USER
读取)
"postgres"
password
: 密码(从环境变量 APP_DB_PASSWORD
读取)
"your_password"
PGVECTOR_CONFIG
)host
: 数据库主机地址
"192.168.67.1"
port
: 数据库端口
5432
dbname
: 数据库名称
"pgvector_db"
user
: 用户名(从环境变量 PGVECTOR_DB_USER
读取)
"postgres"
password
: 密码(从环境变量 PGVECTOR_DB_PASSWORD
读取)
"your_password"
TRAINING_BATCH_PROCESSING_ENABLED
: 是否启用训练数据批处理
True
或 False
True
True
TRAINING_BATCH_SIZE
: 每批处理的训练项目数量
10
10
TRAINING_MAX_WORKERS
: 训练批处理的最大工作线程数
4
4
TRAINING_DATA_PATH
: 训练数据存放路径
"./training/data"
"./training/data"
.
开头):"./training/data"
, "../data"
"/home/user/data"
, "C:/data"
, "D:\\training\\data"
.
开头):"training/data"
, "my_data"
REWRITE_QUESTION_ENABLED
: 是否启用问题重写功能
True
或 False
False
False
ENABLE_RESULT_SUMMARY
: 是否启用数据库查询结果摘要生成
True
或 False
True
True
DISPLAY_RESULT_THINKING
: 是否在返回结果中显示思考过程
True
或 False
False
False
<think></think>
标签内容ENABLE_ERROR_SQL_PROMPT
: 是否启用SQL错误修正提示
True
或 False
True
True
ENABLE_RESULT_VECTOR_SCORE_THRESHOLD
: 是否启用向量查询结果得分阈值过滤
True
或 False
True
True
RESULT_VECTOR_SQL_SCORE_THRESHOLD
: SQL相关查询阈值
0.0
到 1.0
0.65
0.65
RESULT_VECTOR_DDL_SCORE_THRESHOLD
: 数据定义语言阈值
0.0
到 1.0
0.5
0.5
RESULT_VECTOR_DOC_SCORE_THRESHOLD
: 文档查询阈值
0.0
到 1.0
0.5
0.5
RESULT_VECTOR_ERROR_SQL_SCORE_THRESHOLD
: 错误SQL修正阈值
0.0
到 1.0
0.8
0.8
API_MAX_RETURN_ROWS
: 接口返回查询记录的最大行数
1000
1000