Best use case
multi-source-data-aggregation is best used when you need a repeatable AI agent workflow instead of a one-off prompt.
用于多系统整合的多源数据聚合原子 skill,适用于通用行业数据接入场景。
Teams using multi-source-data-aggregation should expect a more consistent output, faster repeated execution, less prompt rewriting.
When to use this skill
- You want a reusable workflow that can be run more than once with consistent structure.
When not to use this skill
- You only need a quick one-off answer and do not need a reusable workflow.
- You cannot install or maintain the underlying files, dependencies, or repository context.
Installation
Claude Code / Cursor / Codex
Manual Installation
- Download SKILL.md from GitHub
- Place it in
.claude/skills/multi-source-data-aggregation/SKILL.mdinside your project - Restart your AI agent — it will auto-discover the skill
How multi-source-data-aggregation Compares
| Feature / Agent | multi-source-data-aggregation | Standard Approach |
|---|---|---|
| Platform Support | Not specified | Limited / Varies |
| Context Awareness | High | Baseline |
| Installation Complexity | Unknown | N/A |
Frequently Asked Questions
What does this skill do?
用于多系统整合的多源数据聚合原子 skill,适用于通用行业数据接入场景。
Where can I find the source code?
You can find the source code on GitHub using the link provided at the top of the page.
SKILL.md Source
# 多源数据聚合 Skill
## 数据来源
本 Skill 支持多种数据源聚合输入格式,核心数据来源包括:
### 1. 数据源类型
- **数据库**:多个数据库数据源
- **API接口**:多个API接口数据源
- **文件数据**:多个文件数据源
- **流式数据**:多个流式数据源
### 2. 数据源特征
- **数据源数量**:少量数据源(<10个)、大量数据源(>100个)
- **数据源类型**:同类型数据源、混合类型数据源
- **数据更新频率**:实时更新、定时更新、批量更新
- **数据源可靠性**:高可靠性、低可靠性
### 3. 数据格式要求
- **数据源配置**:数据源连接配置信息
- **聚合规则**:数据聚合规则和策略
- **数据映射**:数据字段映射关系
- **数据格式**:数据格式和编码方式
### 4. 聚合特征
- **聚合方式**:合并、汇总、关联等聚合方式
- **聚合粒度**:明细级、汇总级、统计级
- **聚合时间**:实时聚合、定时聚合、批量聚合
- **聚合范围**:全量聚合、增量聚合
> 说明:本 Skill 不包含数据源配置功能,需要用户提供数据源配置信息。建议数据源稳定可靠,以便进行准确的数据聚合。
---
## 功能
本 Skill 提供全面的多源数据聚合能力,涵盖多种聚合功能:
### 1. 数据源管理
- **数据源连接**:连接多个数据源
- **数据源配置**:配置数据源参数
- **数据源监控**:监控数据源状态
- **数据源调度**:调度数据源访问
### 2. 数据提取
- **并行提取**:并行从多个数据源提取数据
- **增量提取**:增量提取数据源数据
- **全量提取**:全量提取数据源数据
- **选择性提取**:选择性提取指定数据
### 3. 数据聚合
- **数据合并**:合并多个数据源的数据
- **数据汇总**:汇总多个数据源的数据
- **数据关联**:关联多个数据源的数据
- **数据聚合**:聚合多个数据源的数据
### 4. 数据转换
- **格式转换**:转换数据格式
- **结构转换**:转换数据结构
- **字段映射**:映射数据字段
- **数据标准化**:标准化数据格式
### 5. 数据验证
- **数据完整性验证**:验证数据的完整性
- **数据准确性验证**:验证数据的准确性
- **数据一致性验证**:验证数据的一致性
- **数据质量评估**:评估数据的质量
### 6. 高级处理功能
- **数据去重**:去除重复数据
- **数据补全**:补全缺失数据
- **数据清洗**:清洗数据问题
- **聚合报告**:生成数据聚合报告
---
## 使用示例
### 输出示例
```json
{
"source_info": {
"source_count": 5,
"source_types": ["database", "api", "file"],
"aggregation_strategy": "merge"
},
"data_sources": [
{
"source_id": "SRC001",
"source_type": "database",
"source_name": "financial_db",
"status": "connected",
"records_count": 10000
},
{
"source_id": "SRC002",
"source_type": "api",
"source_name": "market_data_api",
"status": "connected",
"records_count": 5000
}
],
"aggregation_config": {
"aggregation_mode": "merge",
"key_fields": ["stock_code", "trade_date"],
"merge_strategy": "outer",
"conflict_resolution": "latest"
},
"aggregation_results": {
"total_records": 15000,
"merged_records": 12000,
"duplicate_records": 3000,
"aggregation_time": "2024-03-15T10:00:00",
"duration": "60s"
},
"aggregated_data": {
"sample_records": [
{
"stock_code": "000001",
"trade_date": "2024-03-15",
"price": 10.50,
"volume": 1000000,
"source": ["SRC001", "SRC002"]
}
]
},
"data_quality": {
"completeness": 0.98,
"accuracy": 0.97,
"consistency": 0.96,
"overall_score": 0.97
},
"statistics": {
"sources_processed": 5,
"records_aggregated": 12000,
"aggregation_rate": "200 records/s",
"success_rate": 0.98
}
}
```
---
## 注意事项与限制
### 1. 数据源要求
- 数据源需要稳定可靠
- 连接信息需要准确
- 数据格式需要兼容
### 2. 数据聚合性能
- 多数据源可能影响性能
- 大数据量可能影响速度
- 需要合理设置聚合策略
### 3. 数据一致性
- 不同数据源数据可能不一致
- 需要处理数据冲突
- 需要验证数据一致性
### 4. 数据质量
- 数据质量影响聚合结果
- 需要验证数据完整性
- 异常数据需要处理
### 5. 使用限制
- 本 Skill 不包含数据源管理功能
- 聚合结果需要人工复核
- 复杂聚合可能需要特殊处理
---
## 参考资料
- 见 references/ 目录中的相关文档,包括:
- 多源数据聚合方法手册
- 数据源配置指南
- 数据聚合策略说明
- 性能优化指南Related Skills
zhitu-data
智兔数服数据Skill - 免注册A股/港股/基金实时行情、历史K线、技术指标 via 智兔数服
pysnowball-data
雪球(Snowball)金融数据接口,提供 A 股/港股/美股实时行情、财务报表(资产负债/利润/现金流)、估值指标、资金流向、行业对比、基金净值、可转债、指数数据。当用户需要雪球数据、跨市场行情(A/港/美)、财务报表详情、或雪球独有的业务分析数据时使用此 skill。pysnowball 的独特优势:(1)跨市场覆盖(A/港/美)(2)财务三表完整数据 (3)行业对比分析 (4)机构持仓变动。注意:部分高级接口需要雪球 token,基础行情(quotec)无需 token。
return-source-explanation
面向基金投顾与客户服务领域的收益解释任务Skill,围绕「收益来源解释助手」场景提供信息抽取、结构化分析与结果输出。
fred-data
美联储 FRED 经济数据库接口,提供美国 GDP、CPI、就业、利率、通胀等核心经济指标。当用户需要查询美国经济数据时使用。
finance-news-source
财经新闻数据源,聚合12+中文财经网站的实时快讯和深度报道。提供结构化新闻抓取能力,覆盖快讯(财联社/华尔街见闻/东方财富/雪球)、深度(财新/第一财经/界面/晚点)、宏观政策(央行/证监会/统计局)、港美股(富途/老虎/SeekingAlpha)四大类源。当其他 skill 需要财经新闻数据输入时(如 a-share-morning-note、finance-news-analysis),作为数据源调用。与 cn-stock-data(行情/财务数据)互补,本 skill 专注新闻资讯数据。
efinance-data
efinance 中国金融市场数据获取工具,封装 A 股行情、资金流向、龙虎榜、十大股东、业绩报表、基金净值持仓、可转债、期货等数据接口。当用户需要获取 A 股实时行情、个股资金流、主力动向、龙虎榜、十大股东变动、业绩数据、基金净值或持仓、可转债或期货行情时使用此 skill。也适用于需要中国金融市场数据来支撑投研分析、个股研究、行业对比、资产配置等场景。与 akshare-finance 互补,efinance 在资金流分层(主力/大单/超大单)和实时行情字段丰富度上更有优势。
ecb-data
欧央行(ECB)经济数据查询,提供欧元区基准利率、CPI、GDP 及主要成员国经济数据。当用户需要查询欧洲经济数据或欧央行政策时使用。
dd-data-gap-alert
用于信托领域项目尽调中的尽调资料缺口提示助手场景。支持结构化输入处理、规则分析与Markdown结果输出。
data-consistency-check
用于信托领域合规与运营中的数据一致性核验助手场景,支持结构化处理与报告输出。
data-cleaner
金融数据清洗与异常检测工具,提供缺失值处理、去重、异常值检测、数据标准化等功能。当用户需要对原始金融数据进行预处理时使用。
cn-stock-data
中国A股/港股/美股统一数据抽象层。屏蔽 akshare/efinance/adata/pysnowball/ashare 五个数据源的 API 差异,提供统一代码格式(SH600519)、统一字段名(英文 snake_case)、智能路由和自动 Fallback。当用户需要获取股票行情、实时报价、资金流向、财务指标、北向资金等金融数据时使用此 skill。
boj-data
日本央行(BOJ)经济数据查询,提供日本基准利率、CPI、GDP、货币政策等宏观数据。当用户需要查询日本经济数据或日央行政策时使用。