#!/usr/bin/env python
"""
数据流任务脚本模板(包含目标表检测和自动创建功能)
重要要求:
1. 所有数据流脚本必须包含目标表检测功能
2. 如果目标表不存在,脚本必须自动创建目标表
3. 表创建应基于任务描述中的 DDL 定义
4. 表创建应在数据加载之前执行
创建时间: 2026-01-16
"""
from __future__ import annotations
import os
import sys
from datetime import datetime
from typing import Any
import pandas as pd
import psycopg2
from loguru import logger
# 添加项目根目录到Python路径
PROJECT_ROOT = os.path.abspath(os.path.join(os.path.dirname(__file__), "../.."))
sys.path.insert(0, PROJECT_ROOT)
from app.config.config import config, current_env
# 获取配置
app_config = config[current_env]
def get_source_connection() -> psycopg2.extensions.connection:
"""
获取源数据库连接
Returns:
psycopg2 连接对象
"""
# 根据任务描述配置源数据库连接
# TODO: 根据实际任务描述配置
conn = psycopg2.connect(
host="192.168.3.143",
port=5432,
database="dataops",
user="postgres",
password="dataOps",
)
logger.info("源数据库连接成功")
return conn
def get_target_connection() -> psycopg2.extensions.connection:
"""
获取目标数据库连接
Returns:
psycopg2 连接对象
"""
# 根据任务描述配置目标数据库连接
# TODO: 根据实际任务描述配置
conn = psycopg2.connect(
host="192.168.3.143",
port=5432,
database="dataops",
user="postgres",
password="dataOps",
options="-c search_path=dags,public", # 根据实际 schema 配置
)
logger.info("目标数据库连接成功")
return conn
def ensure_target_table_exists(conn: psycopg2.extensions.connection) -> None:
"""
确保目标表存在,如果不存在则创建
重要:此函数必须根据任务描述中的目标表 DDL 来实现
Args:
conn: 目标数据库连接
"""
cursor = conn.cursor()
target_table = "target_table_name" # TODO: 替换为实际表名
target_schema = "public" # TODO: 替换为实际 schema(如 dags, public 等)
try:
# 检查表是否存在
cursor.execute(
"""
SELECT EXISTS(
SELECT 1 FROM information_schema.tables
WHERE table_schema = %s
AND table_name = %s
)
""",
(target_schema, target_table),
)
result = cursor.fetchone()
exists = result[0] if result else False
if not exists:
logger.info(f"目标表不存在,正在创建 {target_schema}.{target_table}...")
# TODO: 根据任务描述中的 DDL 创建表
# 示例:根据任务描述中的 CREATE TABLE 语句创建
create_table_sql = f"""
CREATE TABLE IF NOT EXISTS {target_schema}.{target_table} (
id SERIAL PRIMARY KEY,
-- TODO: 根据任务描述中的 DDL 添加所有列
create_time TIMESTAMP DEFAULT CURRENT_TIMESTAMP
);
"""
cursor.execute(create_table_sql)
# 添加表注释
cursor.execute(
f"COMMENT ON TABLE {target_schema}.{target_table} IS '表注释'"
)
# 添加列注释(根据任务描述中的 COMMENT)
# TODO: 根据任务描述添加列注释
conn.commit()
logger.info(f"目标表 {target_schema}.{target_table} 创建成功")
else:
logger.info(f"目标表 {target_schema}.{target_table} 已存在")
except Exception as e:
conn.rollback()
logger.error(f"创建目标表失败: {e}")
raise
finally:
cursor.close()
def extract_source_data(conn: psycopg2.extensions.connection) -> pd.DataFrame:
"""
从源表提取数据
Args:
conn: 源数据库连接
Returns:
包含源数据的DataFrame
"""
# TODO: 根据任务描述编写提取数据的 SQL
query = """
SELECT *
FROM source_table
"""
logger.info("正在从源表提取数据...")
try:
df = pd.read_sql(query, conn)
logger.info(f"成功提取 {len(df)} 条记录")
return df
except Exception as e:
logger.error(f"提取源数据失败: {e}")
raise
def transform_data(df: pd.DataFrame) -> pd.DataFrame:
"""
数据转换处理
Args:
df: 源数据DataFrame
Returns:
转换后的DataFrame
"""
logger.info("正在执行数据转换...")
# TODO: 根据任务描述中的 rule 实现数据转换逻辑
logger.info(f"数据转换完成,共 {len(df)} 条记录")
return df
def load_to_target(
df: pd.DataFrame,
conn: psycopg2.extensions.connection,
update_mode: str = "append",
batch_size: int = 1000,
) -> int:
"""
将数据加载到目标表
Args:
df: 要加载的DataFrame
conn: 目标数据库连接
update_mode: 更新模式(append 或 full)
batch_size: 批量插入大小
Returns:
插入的记录数
"""
if df.empty:
logger.warning("没有数据需要加载")
return 0
logger.info(f"正在将 {len(df)} 条记录加载到目标表...")
target_table = "schema.target_table_name" # TODO: 替换为实际表名(包含 schema)
cursor = conn.cursor()
inserted_count = 0
try:
# 全量更新模式:先清空目标表
if update_mode.lower() == "full":
logger.info("全量更新模式:清空目标表...")
cursor.execute(f"TRUNCATE TABLE {target_table}")
logger.info("目标表已清空")
# TODO: 根据目标表结构准备插入的列
columns = ["col1", "col2", "col3"] # TODO: 替换为实际列名
# 构建插入SQL
placeholders = ", ".join(["%s"] * len(columns))
column_names = ", ".join(columns)
insert_sql = (
f"INSERT INTO {target_table} ({column_names}) VALUES ({placeholders})"
)
# 批量插入
for i in range(0, len(df), batch_size):
batch_df = df.iloc[i : i + batch_size]
records = []
for _, row in batch_df.iterrows():
record = tuple(
row[col] if col in row.index else None for col in columns
)
records.append(record)
cursor.executemany(insert_sql, records)
inserted_count += len(records)
logger.debug(f"已插入 {inserted_count}/{len(df)} 条记录")
conn.commit()
logger.info(f"成功加载 {inserted_count} 条记录到 {target_table}")
return inserted_count
except Exception as e:
conn.rollback()
logger.error(f"数据加载失败: {e}")
raise
finally:
cursor.close()
def main() -> dict[str, Any]:
"""
主函数:执行ETL流程
Returns:
执行结果字典
"""
result = {
"task_id": 0, # TODO: 替换为实际任务ID
"task_name": "任务名称", # TODO: 替换为实际任务名称
"status": "failed",
"records_extracted": 0,
"records_loaded": 0,
"error_message": None,
"execution_time": None,
}
start_time = datetime.now()
source_conn = None
target_conn = None
try:
logger.info("=" * 60)
logger.info("任务开始: 任务名称") # TODO: 替换为实际任务名称
logger.info("=" * 60)
# 步骤1: 建立数据库连接
logger.info("[Step 1/5] 建立数据库连接...")
source_conn = get_source_connection()
target_conn = get_target_connection()
# 步骤2: 确保目标表存在(重要:必须在数据加载前执行)
logger.info("[Step 2/5] 检查/创建目标表...")
ensure_target_table_exists(target_conn)
# 步骤3: 从源表提取数据
logger.info("[Step 3/5] 提取源数据...")
df = extract_source_data(source_conn)
result["records_extracted"] = len(df)
# 步骤4: 数据转换
logger.info("[Step 4/5] 数据转换...")
df_transformed = transform_data(df)
# 步骤5: 加载到目标表
logger.info("[Step 5/5] 加载数据到目标表...")
records_loaded = load_to_target(
df_transformed, target_conn, update_mode="append"
)
result["records_loaded"] = records_loaded
result["status"] = "success"
logger.info("=" * 60)
logger.info(
f"任务完成! 提取: {result['records_extracted']}, 加载: {result['records_loaded']}"
)
logger.info("=" * 60)
except Exception as e:
result["status"] = "failed"
result["error_message"] = str(e)
logger.error(f"任务执行失败: {e}")
raise
finally:
# 关闭数据库连接
if source_conn:
source_conn.close()
logger.debug("源数据库连接已关闭")
if target_conn:
target_conn.close()
logger.debug("目标数据库连接已关闭")
result["execution_time"] = str(datetime.now() - start_time)
return result
if __name__ == "__main__":
# 配置日志
# 重要:日志输出到 stdout 而非 stderr,以便 n8n 工作流正确解析输出
# n8n SSH 节点的成功响应使用 $json.stdout,失败响应使用 $json.stderr
logger.remove()
logger.add(
sys.stdout,
level="INFO",
format="{time:YYYY-MM-DD HH:mm:ss} | {level: <8} | {name}:{function}:{line} - {message}",
)
logger.add(
os.path.join(
PROJECT_ROOT, "logs", "task_xxx.log"
), # TODO: 替换为实际日志文件名
level="DEBUG",
rotation="10 MB",
retention="7 days",
encoding="utf-8",
)
try:
result = main()
if result["status"] == "success":
sys.exit(0)
else:
sys.exit(1)
except Exception as e:
logger.exception(f"脚本执行异常: {e}")
sys.exit(1)