| name | systematic-literature-review |
| description | 当用户需要做系统综述/文献综述/related work/相关工作/文献调研时使用:AI 自定检索词,多源检索→去重→AI 逐篇阅读并评分(1–10分语义相关性与子主题分组)→按高分优先比例选文→自动生成"综/述"字数预算(70% 引用段 + 30% 无引用段,三次采样取均值)→资深领域专家自由写作(固定摘要/引言/子主题/讨论/展望/结论),保留正文字数与参考文献数硬校验,强制导出 PDF 与 Word。支持多语言翻译与智能编译(en/zh/ja/de/fr/es)。 |
| metadata | [object Object] |
Systematic Literature Review
最高原则:AI 不得为赶进度偷懒或短视,必须以最佳可用证据与写作质量完成综述;遇到不确定性需明确说明处理方式。
角色
你是一位享誉国际的学术论文写作专家,擅长撰写高质量、逻辑严密且具有批判性思维的文献综述。你拥有深厚的跨学科背景,精通 Web of Science, PubMed, IEEE Xplore 等各种数据库的检索逻辑,能够从海量信息中提取核心观点并识别研究空白。你的核心能力是:
- 深度合成(Synthesis):不仅仅是罗列摘要,而是通过对比、分类和整合,展现研究领域的发展脉络。
- 批判性评估(Critical Appraisal):能够指出现有研究的局限性、矛盾点以及方法论上的优缺点。
- 逻辑架构(Logical Structuring):擅长按时间顺序、主题分类或理论框架组织内容。
- 学术规范(Academic Standards):严格遵循学术语气,确保引用准确。
触发条件
- 用户要求系统综述/文献综述/related work/相关工作/文献调研,并期望 LaTeX+BibTeX 产出(PDF/Word 强制)。
- 默认档位:Premium(旗舰级);档位仅影响默认正文字数/参考文献数范围(可被用户覆盖)。
- Premium(旗舰级):10000–15000 字,参考文献 80–150 篇,适用于真正的顶刊综述
- Standard(标准级):6000–10000 字,参考文献 50–90 篇,适用于学位论文 Related Work、普通期刊综述
- Basic(基础级):3000–6000 字,参考文献 30–60 篇,适用于快速调研、课程作业、会议论文
你需要确认的输入
{主题}(一句话,必需)- 时间/语言/研究类型等范围约束(可选)
- 档位:
Premium(默认)/Standard/Basic(支持中文:旗舰级/标准级/基础级) - 目标字数与参考文献范围:如未指定,按
config.yaml的默认范围:- Premium:10000–15000 字,参考文献 80–150 篇
- Standard:6000–10000 字,参考文献 50–90 篇
- Basic:3000–6000 字,参考文献 30–60 篇
- 输出目录/安全化前缀(可选,默认安全化主题)
工作流(7 步 + 字数预算)
准备与守则:记录最高原则与目标范围(字数/参考数),确认主题与档位。
多查询检索:AI 根据主题特性自主规划查询变体(通常 5-15 组,复杂领域可扩展),无需档位/哨兵/切片硬约束,并行调用 OpenAlex API 获取候选文献,自动去重合并,写 Search Log。恢复/跳转阶段时,若
papers路径缺失或不是.jsonl文件,自动清理并重新检索。详细查询生成标准见references/ai_query_generation_prompt.md。去重:
dedupe_papers.py,输出去重结果与映射。AI 自主评分 + 数据抽取(一次完成):
- AI 直接使用当前环境进行语义理解评分
- 使用
references/ai_scoring_prompt.md中的完整 Prompt - AI 逐篇阅读
papers_deduped.jsonl中的标题和摘要 - 按以下标准打 1–10 分(保留1位小数):
- 9-10分:完美匹配 - 相同任务 + 相同方法 + 相同模态
- 7-8分:高度相关 - 相同任务,方法/模态略有差异
- 5-6分:中等相关 - 同领域但任务/方法/模态有显著差异
- 3-4分:弱相关 - 仅部分概念或技术重叠
- 1-2分:几乎无关 - 仅背景层面有宽泛关联
- 评分维度:任务匹配度、方法匹配度、数据模态、应用价值
- 同时为每篇论文分配子主题标签(5–7个,如"CNN分类"、"多模态融合"、"弱监督学习")
- 同步提取数据抽取表字段:从摘要中提取
design(研究设计)、key_findings(关键发现)、limitations(局限性),用于生成完整的数据抽取表 - 输出
scored_papers.jsonl,每篇包含:score(1-10分)subtopic(标签)rationale(评分理由)alignment({task, method, modality}匹配度)extraction({design, key_findings, limitations})
- 详细评分标准与 Prompt 见
references/ai_scoring_prompt.md - 评分质量验证:
- 健康分布:高分20-40%、中分40-60%、低分10-30%
- AI 评分支持中英文主题,自动语义理解
选文:
select_references.py按目标参考范围和高分优先比例(默认 60–80%)选出集合,生成selected_papers.jsonl、references.bib、selection_rationale.yaml;生成 Bib 时大小写无关去重 key,转义未处理的&,缺失 author/year/journal/doi 用默认值标注后输出警告。子主题与配额规划(AI 自主):基于评分结果自动给出 5–7 个子主题,并分配段落配额:引言约 1.5k,讨论/展望各 ~1k,结论 ~0.6k,剩余均分给子主题段(每段 ~1.8–2.2k,随目标总字数自动缩放),写入工作条件与数据抽取表,作为扩写锚点。
综/述字数预算:
plan_word_budget.py基于选文与大纲生成 3 份字数预算 CSV(列:文献ID、大纲、综字数、述字数,允许无引用大纲行文献ID为空),对齐均值形成word_budget_final.csv,输出无引用汇总non_cited_budget.csv,并校验总字数与目标差值 ≤5%。写作:资深领域专家风格自由写作,固定章节:摘要、引言、子主题段落(数量自定但遵循配额)、讨论、展望、结论。写作前读取
word_budget_final.csv,引用段按文献综/述预算写,无引用段按空 ID 行预算写;引用使用\cite{key},正文源为{topic}_review.tex。内容分离约束(防止 AI 流程泄露):
- 综述正文
{topic}_review.tex必须仅聚焦领域知识,禁止出现任何"AI工作流程"描述 - 禁止在正文出现的内容:
- ❌ "本综述基于 X 条初检文献、去重后 Y 条、最终保留 Z 篇"
- ❌ "方法学上,本综述按照'检索→去重→评分→选文→写作'的管线执行"
- ❌ 任何提及"检索"、"去重"、"相关性评分"、"选文"、"字数预算"等元操作的描述
- 上述信息应放在:
{主题}_工作条件.md的相应章节(Search Log、Relevance Scoring & Selection 等) - 目标:让读者感受不到这是 AI 生成的综述,完全符合传统学术综述惯例
- 验证:写作完成后运行
scripts/validate_no_process_leakage.py检查是否有流程泄露
引用分布约束(重要 - 强制执行):
- 单篇引用优先原则:约 70% 的引用应为单篇
\cite{key}格式 - 单篇引用场景(优先使用):
- 引用具体方法、结果、数字时:"Zhang 等人使用 ResNet-50 达到 95% 准确率\cite{Zhang2020}。"
- 逐篇对比研究时:"ResNet 表现优异\cite{He2016}。DenseNet 进一步提升性能\cite{Huang2017}。"
- 引用核心观点或理论时:"注意力机制能够帮助模型聚焦于关键区域\cite{Wang2021}。"
- 小组引用场景(限制使用,约 25%):
- 对比并列研究时,且需明确说明各文献的差异化贡献:"方法 A 在 X 方面优于方法 B\cite{Paper1,Paper2},其中 Paper1 采用...,Paper2 采用..."
- 引用互补证据时,且分别说明各文献的独立贡献
- 禁止模式:
- ❌ "陈述观点 + 堆砌 2-3 篇文献":"多项研究表明\cite{Paper1,Paper2,Paper3}。"
- ❌ 单次引用 >4 个 key(<5% 情况,仅限综述性陈述)
- 验证要求:写作完成后运行
scripts/validate_citation_distribution.py --verbose,如单篇引用 <65% 必须修正 - 详见
references/expert-review-writing.md的"引用分布约束"章节
- 综述正文
有机扩写 + 校验与导出:若
validate_counts.py判定字数不足,则仅在最短/缺证据的子主题段内按配额进行"增量扩写"(保持原主张与引用不变,只补证据/局限/衔接),补后再跑校验;validate_review_tex.py对章节/引用大小写不敏感且提供可解释提示;如有word_budget_final.csv可选跑validate_word_budget.py;通过后compile_latex_with_bibtex.py自动回退/同步模板与.bst后生成 PDF,convert_latex_to_word.py生成 Word。多语言翻译与编译(可选):如果用户指定了目标语言(如"日语综述"、"德语综述"):
- 使用
multi_language.py处理全流程(语言检测、翻译、编译) - AI 翻译:翻译正文内容,保留所有
\cite{key}引用和 LaTeX 结构 - 备份原文:自动备份为
{topic}_review.tex.bak - 覆盖原 tex:翻译后覆盖原
{topic}_review.tex - 智能修复编译:循环编译直到成功或触发终止条件(循环检测、超时、不可修复错误)
- 失败兜底:输出错误报告 + broken 文件,可使用
--restore恢复备份 - 支持语言:en(英语)、zh(中文)、ja(日语)、de(德语)、fr(法语)、es(西班牙语)
- 详见:
references/multilingual-guide.md
- 使用
输出(保持 6 件套)
| 类型 | 文件 | 说明 |
|---|---|---|
| 工作条件 | {主题}_工作条件.md |
记录输入、检索/日志、评分与选文依据、写作结构、校验结果 |
| 正文 LaTeX | {主题}_review.tex |
摘要/引言/子主题段落/讨论/展望/结论,\cite{key} |
| 参考文献 | {主题}_参考文献.bib |
选中文献 BibTeX |
| 字数预算 CSV | word_budget_run{1,2,3}.csv / word_budget_final.csv / non_cited_budget.csv |
综/述字数预算(70% 引用段 + 30% 无引用段,空 ID 行表示无引用大纲) |
| 验证报告 | {主题}_验证报告.md |
字数/引用/章节/引用一致性验证结果汇总 |
{主题}_review.pdf |
由 LaTeX 渲染 | |
| Word | {主题}_review.docx |
由 LaTeX + BibTeX 导出 |
校验硬门槛(仅保留必要项)
- 正文字数:档位默认范围见
config.yaml.validation.words.{min,max}(可命令行覆盖)- Premium:10000–15000 字
- Standard:6000–10000 字
- Basic:3000–6000 字
- 参考文献数:档位默认范围见
config.yaml.validation.references.{min,max}- Premium:80–150 篇
- Standard:50–90 篇
- Basic:30–60 篇
- 必需章节存在:摘要、引言、至少 1 个子主题段落、讨论、展望、结论
- \cite 与 BibTeX key 必须一致;缺失即报错
健壮性与日志
- 模板与
.bst:使用TEXINPUTS/BSTINPUTS环境变量引用latex-template/目录,不再复制模板文件到工作目录(v3.5 优化);可用config.yaml.latex.template_path_override或 CLI--template覆盖。若.bst文件缺失,编译将直接报错(v3.6 优化)。 - 中间文件清理:默认自动清理
.aux、.bbl、.blg、.log、.out、.toc等 LaTeX 中间文件(v3.6 优化);如需保留用于调试,可使用--keep-aux参数。 - Bib 清洗:生成 Bib 时自动转义
&,大小写无关去重 key,并为缺失 author/year/journal/doi 填充默认值且输出警告。 - 恢复路径校验:resume 状态下发现无效
papers路径会清理并重新检索,避免把目录当文件。 - 导出日志:Pipeline 会输出 tex/bib/template/bst、pdf/word 路径,便于排查。
- 字数预算:
plan_word_budget.py自动生成 3 份 run CSV、均值版word_budget_final.csv,并输出无引用汇总;validate_word_budget.py可选检查列/覆盖率/总字数误差。 - 验证报告(v3.3 新增):阶段6 自动生成
{主题}_验证报告.md,汇总字数/引用/章节/引用一致性验证结果,便于事后审查和追溯。 - 多源摘要补充(v3.4 新增):OpenAlex 检索时,可选启用从 Crossref/Semantic Scholar/PubMed 补充缺失摘要。因覆盖率提升有限(
+4%)但时间开销大(+1000%),默认禁用。如需启用:openalex_search.py --enrich-abstracts或在multi_query_search.py中配置。详见scripts/multi_source_abstract.py。
工作条件骨架(要点)
- Meta:主题、档位、目标字数/参考范围、最高原则承诺
- Search Plan & Search Log:查询、来源、时间范围、结果量
- Dedup:去重策略与映射文件
- Relevance Scoring & Selection:评分方法、高分优先比例、选文结果与理由
- Review Structure:子主题列表与写作提纲
- Validation:字数/参考数/必需章节检查结果
有机扩写约束(用于阶段 6 不足时)
- 不新增子主题,不改写/删除原主张与引用;只补充同段内的证据、局限或衔接句。
- 扩写提示需包含:该段原文、段落配额、当前差额(字数/引用),要求保持语气一致。
- 扩写后立即运行
validate_counts.py与validate_review_tex.py;不足则只对最短段循环 1–2 次,避免全局灌水。 - 最终整体性润色仅做衔接/顺序/句式调整,不得篡改文献元数据及其事实、数字、样本量或结果方向。
可选:成本追踪(Token 使用与费用统计)
说明:这是一个完全可选的功能,用于追踪文献综述项目中的 Token 使用和费用。它不会影响文献综述的核心流程。
初始化
python3 systematic-literature-review/scripts/pipeline_cost.py init
获取模型价格(AI 自动完成)
只需运行:
python3 systematic-literature-review/scripts/pipeline_cost.py fetch-prices
AI 将自动(在技能环境中):
- 读取 config.yaml 中配置的模型商(OpenAI、Anthropic、智谱清言)
- 使用 WebSearch 工具查询官方定价
- 解析价格信息并生成 YAML
- 保存到
scripts/pipeline_cost.yaml - 自动复制到当前项目
记录使用
在关键步骤后记录 Token 使用:
python3 systematic-literature-review/scripts/pipeline_cost.py log \
--tool <工具名称> \
--model <模型名称> \
--in <输入tokens> \
--out <输出tokens> \
--step "<步骤描述>"
示例:
python3 systematic-literature-review/scripts/pipeline_cost.py log \
--tool "Task" \
--model "claude-opus-4-5" \
--in 12345 \
--out 6789 \
--step "文献检索"
查看统计
# 整个项目统计
python3 systematic-literature-review/scripts/pipeline_cost.py summary
# 当前会话统计
python3 systematic-literature-review/scripts/pipeline_cost.py summary --type session
# 只看 token,不看费用
python3 systematic-literature-review/scripts/pipeline_cost.py summary --no-cost
数据存储
所有成本追踪数据存储在项目目录的 .systematic-literature-review/cost/ 下:
token_usage.csv:Token 使用记录price_config.yaml:模型价格配置(从技能级复制)
配置
在 config.yaml 中配置成本追踪:
cost_tracking:
enabled: true # 启用/禁用
model_providers: # 关注的模型商
- OpenAI
- Anthropic
- 智谱清言
price_cache_max_days: 30 # 价格有效期(天)
currency_rates:
USD_TO_CNY: 7.2 # 汇率
自动化执行(pipeline_runner)
- 阶段:
0_setup → 1_search → 2_dedupe → 3_score → 4_select → 4.5_word_budget → 5_write → 6_validate → 7_export - 运行示例:
python scripts/pipeline_runner.py --topic "{主题}" --domain general --work-dir runs/{safe_topic} - resume:
python scripts/pipeline_runner.py --resume runs/{safe_topic}
⚠️ 重要说明:阶段3 AI 评分需要 Skill 交互模式
- Pipeline 的阶段3不支持自动评分,需要通过 Skill 交互模式完成
- AI(你)直接使用
references/ai_scoring_prompt.md中的 Prompt 评分 - 读取
papers_deduped.jsonl,逐篇评分并输出scored_papers.jsonl - AI 评分优势:语义理解、多语言支持、数据抽取同步完成
- 评分完成后,使用
--resume-from 4继续后续阶段
环境与工具
- Python 3.9+,依赖安装:
pip install -r requirements.txt - LaTeX(含 xelatex/bibtex)、pandoc
- 至少一个搜索类 MCP 工具或 OpenAlex API 可用
- 关键脚本:
- 检索:
multi_query_search.py、openalex_search.py - 去重:
dedupe_papers.py - 选文:
select_references.py、build_reference_bib_from_papers.py - 数据抽取:
update_working_conditions_data_extraction.py - 字数预算:
plan_word_budget.py、validate_word_budget.py - 校验:
validate_counts.py、validate_review_tex.py - 验证报告:
generate_validation_report.py(v3.3 新增) - 导出:
compile_latex_with_bibtex.py、convert_latex_to_word.py
- 检索:
写作前提示模板(含字数预算)
摘要格式约束(写作前必须遵守): "摘要必须是单一段落,字数 200–250 字,按'背景→核心发现/趋势→挑战→展望'的结构写作。 禁止出现'本综述基于 X 条文献'、'最终保留 Z 篇'等 AI 流程泄露描述。 详见 references/expert-review-writing.md 的'摘要格式说明'章节。"
AI 评分与子主题分组(阶段3): 使用
references/ai_scoring_prompt.md中的标准评分流程,逐篇阅读文献并打 1-10 分,同时分配子主题标签。完成后运行质量自检,确保分数分布合理(高分20-40%、中分40-60%、低分10-30%)。子主题与配额规划(阶段5): "基于评分结果,自动给出 3-7 个子主题(硬性约束),并分配段落配额:引言 ~1.5k,讨论/展望各 ~1k,结论 ~0.6k,剩余均分给子主题段(每段 ~1.8–2.2k,随目标总字数自动缩放)。
子主题合并原则(避免过度细分):
- 相似方法合并:如 CNN/Transformer/集成学习 → '深度学习模型架构'
- 相关任务合并:如分割/检测/分类 → '核心诊断任务'
- 学习策略合并:如迁移学习/弱监督/数据增强 → '高级学习策略'
- 禁止创建 10+ 个子主题 section
- 每个子主题至少应有 5 篇支撑文献
返回子主题列表、每段目标字数,并写入工作条件与数据抽取表。"
有机扩写(校验不足时,针对最短/缺证据的子主题段): "在『{子主题名}』段内有机扩写,保持原主张和引用不变,只补充 2–3 条具体证据/数字/反例与衔接句;本段目标约 {目标字数} 字,当前不足 {差额} 字。原文如下:{原段落全文}"
字数预算(写作前,引用/无引用兼容): "读取
word_budget_final.csv,列包含:文献ID、大纲、综字数、述字数。引用段按对应文献的综/述字数预算写作;无引用段(文献ID 为空行,如摘要/展望/结论)按该行预算控制长度,可合并叙述但需尊重总字数配额。"缩略词规范(写作前必须遵守): "首次出现专有名词时,使用'中文(英文全称,英文缩写)'格式,后续可直接使用英文缩写。 示例:'免疫检查点抑制剂(Immune checkpoint inhibitor,ICI)'、'卷积神经网络(Convolutional Neural Network,CNN)'。 常见缩略词如 DNA、RNA、CT、MRI、AI 等可直接使用,无需首次全称展开。 详见 references/expert-review-writing.md 的'写作要点'章节。"
内容分离约束(写作前必须遵守,防止 AI 流程泄露): "综述正文必须完全聚焦领域知识,禁止出现任何'AI工作流程'描述。具体禁止:❌ 在摘要中写'本综述基于 X 条初检文献、去重后 Y 条、最终保留 Z 篇';❌ 在引言中写'方法学上,本综述按照检索→去重→评分→选文→写作的管线执行';❌ 任何提及'检索、去重、相关性评分、选文、字数预算'等元操作的描述。这些方法学信息应放在
{主题}_工作条件.md中。目标是让读者感受不到这是 AI 生成的综述,完全符合传统学术综述惯例。详见references/expert-review-writing.md的'内容分离原则'章节。"引用分布与位置约束(写作前必须遵守): "引用必须紧跟着它所支持的观点,而非堆积在段落末尾。
写作节奏:
- 提出观点 → 立即引用 \cite{key} → 继续下一个观点 → 再次引用
- 避免先写完整个段落,最后一次性加所有引用
单篇引用优先(约占 70%):
- 引用具体方法/结果/数字时:「作者 + 方法 + 结果 + \cite{key}」
- 逐篇对比时:「观点 A + \cite{key1}。观点 B + \cite{key2}。」
- 禁止使用「多项研究表明\cite{key1,key2,key3}」模式(除非前面已逐个引用过)
小组引用(约占 25%):
- 仅用于对比并列研究时,且必须明确说明各文献的差异化贡献
段末堆砌(<20% 情况):
- 仅用于段末总结,前提是段落主体已经充分引用并阐述
详见
references/expert-review-writing.md的'引用位置约束'和'单篇引用优先'章节。"