app_config.py 4.9 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151
  1. from dotenv import load_dotenv
  2. import os
  3. # 加载.env文件中的环境变量
  4. # 使用 override=True 确保能够重新加载更新的环境变量
  5. load_dotenv(override=True)
  6. # ===== 模型提供商类型配置 =====
  7. # LLM模型提供商类型:api 或 ollama
  8. LLM_MODEL_TYPE = "api" # api, ollama
  9. # Embedding模型提供商类型:api 或 ollama
  10. EMBEDDING_MODEL_TYPE = "ollama" # api, ollama
  11. # =====API 模型名称配置 =====
  12. # API LLM模型名称(当LLM_MODEL_TYPE="api"时使用:qianwen 或 deepseek )
  13. API_LLM_MODEL = "deepseek"
  14. # 向量数据库类型:chromadb 或 pgvector
  15. VECTOR_DB_TYPE = "pgvector"
  16. # ===== API LLM模型配置 =====
  17. # DeepSeek模型配置
  18. API_DEEPSEEK_CONFIG = {
  19. "api_key": os.getenv("DEEPSEEK_API_KEY"), # 从环境变量读取API密钥
  20. "model": "deepseek-reasoner", # deepseek-chat, deepseek-reasoner
  21. "allow_llm_to_see_data": True,
  22. "temperature": 0.6,
  23. "n_results": 6,
  24. "language": "Chinese",
  25. "stream": True, # 是否使用流式模式
  26. "enable_thinking": True # 自定义,是否支持流模式
  27. }
  28. # Qwen模型配置
  29. API_QIANWEN_CONFIG = {
  30. "api_key": os.getenv("QWEN_API_KEY"), # 从环境变量读取API密钥
  31. "model": "qwen3-235b-a22b",
  32. "allow_llm_to_see_data": True,
  33. "temperature": 0.7,
  34. "n_results": 6,
  35. "language": "Chinese",
  36. "stream": True, # 是否使用流式模式
  37. "enable_thinking": True # 是否启用思考功能(要求stream=True)
  38. }
  39. #qwen3-30b-a3b
  40. #qwen3-235b-a22b
  41. #qwen-plus-latest
  42. #qwen-plus
  43. # ===== API Embedding模型配置 =====
  44. API_EMBEDDING_CONFIG = {
  45. "model_name": "BAAI/bge-m3",
  46. "api_key": os.getenv("EMBEDDING_API_KEY"),
  47. "base_url": os.getenv("EMBEDDING_BASE_URL"),
  48. "embedding_dimension": 1024
  49. }
  50. # BAAI/bge-m3
  51. # text-embedding-v4
  52. # ===== Ollama LLM模型配置 =====
  53. OLLAMA_LLM_CONFIG = {
  54. "base_url": "http://192.168.3.204:11434", # Ollama服务地址
  55. "model": "qwen3:32b", # Ollama模型名称,如:qwen3:32b, deepseek-r1:32b
  56. "allow_llm_to_see_data": True,
  57. "temperature": 0.7,
  58. "n_results": 6,
  59. "language": "Chinese",
  60. "timeout": 60, # Ollama可能需要更长超时时间
  61. "stream": True, # 是否使用流式模式
  62. "enable_thinking": True, # 是否启用思考功能(推理模型支持)
  63. # Ollama 特定参数
  64. #"num_ctx": 8192, # 上下文长度
  65. #"num_predict": 2048, # 预测token数量,-1表示无限制
  66. #"repeat_penalty": 1.1, # 重复惩罚
  67. #"auto_check_connection": True # 是否自动检查连接
  68. }
  69. # ===== Ollama Embedding模型配置 =====
  70. OLLAMA_EMBEDDING_CONFIG = {
  71. "base_url": "http://192.168.3.204:11434", # Ollama服务地址
  72. "model_name": "bge-m3:567m", # Ollama embedding模型名称
  73. "embedding_dimension": 1024 # 根据实际模型调整
  74. }
  75. # 应用数据库连接配置 (业务数据库)
  76. APP_DB_CONFIG = {
  77. "host": "192.168.67.1",
  78. "port": 5432,
  79. "dbname": "bank_db",
  80. "user": os.getenv("APP_DB_USER"),
  81. "password": os.getenv("APP_DB_PASSWORD")
  82. }
  83. # ChromaDB配置
  84. # CHROMADB_PATH = "."
  85. # PgVector数据库连接配置 (向量数据库,独立于业务数据库)
  86. PGVECTOR_CONFIG = {
  87. "host": "192.168.67.1",
  88. "port": 5432,
  89. "dbname": "pgvector_db",
  90. "user": os.getenv("PGVECTOR_DB_USER"),
  91. "password": os.getenv("PGVECTOR_DB_PASSWORD")
  92. }
  93. # 训练脚本批处理配置
  94. # 这些配置仅用于 training/run_training.py 训练脚本的批处理优化
  95. TRAINING_BATCH_PROCESSING_ENABLED = True # 是否启用训练数据批处理
  96. TRAINING_BATCH_SIZE = 10 # 每批处理的训练项目数量
  97. TRAINING_MAX_WORKERS = 4 # 训练批处理的最大工作线程数
  98. # 训练数据路径配置
  99. # 支持以下格式:
  100. # 1. 相对路径(以 . 开头):
  101. # "./training/data" - 项目根目录下的training/data
  102. # "../data" - 项目根目录上级的data目录
  103. # 2. 绝对路径:
  104. # "/home/user/data" - Linux绝对路径
  105. # "C:/data" - Windows绝对路径
  106. # "D:\\training\\data" - Windows绝对路径(转义反斜杠)
  107. # 3. 相对路径(不以.开头):
  108. # "training/data" - 相对于项目根目录
  109. # "my_data" - 项目根目录下的my_data文件夹
  110. TRAINING_DATA_PATH = "./training/data"
  111. # 是否启用问题重写功能,也就是上下文问题合并。
  112. REWRITE_QUESTION_ENABLED = False
  113. # 是否在摘要中显示thinking过程
  114. # True: 显示 <think></think> 内容
  115. # False: 隐藏 <think></think> 内容,只显示最终答案
  116. DISPLAY_SUMMARY_THINKING = False
  117. # 是否启用向量查询结果得分阈值过滤
  118. # result = max((n + 1) // 2, 1)
  119. ENABLE_RESULT_VECTOR_SCORE_THRESHOLD = True
  120. # 向量查询结果得分阈值
  121. RESULT_VECTOR_SQL_SCORE_THRESHOLD = 0.65
  122. RESULT_VECTOR_DDL_SCORE_THRESHOLD = 0.5
  123. RESULT_VECTOR_DOC_SCORE_THRESHOLD = 0.5
  124. ENABLE_ERROR_SQL_PROMPT = True
  125. RESULT_VECTOR_ERROR_SQL_SCORE_THRESHOLD = 0.8
  126. # 接口返回查询记录的最大行数
  127. API_MAX_RETURN_ROWS = 1000