citation-coverage-audit
学術論文投稿前に、関連する古典的・最新の研究が適切に引用されているか、網羅性を監査するSkill。
📜 元の英語説明(参考)
Audit whether an academic paper cites the necessary classic, closest, and recent concurrent work before submission. Use this skill whenever the user worries that references are incomplete, wants missing citations found, needs related work coverage checked, asks whether a paper cites classic work or recent arXiv/OpenReview work, or wants a citation coverage report for ML/AI venues such as NeurIPS, ICML, ICLR, CVPR, ACL, EMNLP, or similar conferences.
🇯🇵 日本人クリエイター向け解説
学術論文投稿前に、関連する古典的・最新の研究が適切に引用されているか、網羅性を監査するSkill。
※ jpskill.com 編集部が日本のビジネス現場向けに補足した解説です。Skill本体の挙動とは独立した参考情報です。
⚠️ ダウンロード・利用は自己責任でお願いします。当サイトは内容・動作・安全性について責任を負いません。
🎯 このSkillでできること
下記の説明文を読むと、このSkillがあなたに何をしてくれるかが分かります。Claudeにこの分野の依頼をすると、自動で発動します。
📦 インストール方法 (3ステップ)
- 1. 上の「ダウンロード」ボタンを押して .skill ファイルを取得
- 2. ファイル名の拡張子を .skill から .zip に変えて展開(macは自動展開可)
- 3. 展開してできたフォルダを、ホームフォルダの
.claude/skills/に置く- · macOS / Linux:
~/.claude/skills/ - · Windows:
%USERPROFILE%\.claude\skills\
- · macOS / Linux:
Claude Code を再起動すれば完了。「このSkillを使って…」と話しかけなくても、関連する依頼で自動的に呼び出されます。
詳しい使い方ガイドを見る →- 最終更新
- 2026-05-17
- 取得日時
- 2026-05-17
- 同梱ファイル
- 1
📖 Skill本文(日本語訳)
※ 原文(英語/中国語)を Gemini で日本語化したものです。Claude 自身は原文を読みます。誤訳がある場合は原文をご確認ください。
[Skill 名] citation-coverage-audit
引用文献網羅性監査
ドラフト論文が引用すべき文献を引用しているかどうかを監査します。このスキルは、参考文献の完全性、すなわち、古典的な基礎、最も近い先行研究、現在の同時進行中の研究、ベンチマーク/データセット/手法の帰属、および査読者が指摘しがちな見落としに関するものです。
このスキルは次の場合に使用してください。
- ユーザーがドラフト論文を持っているが、参考文献リストが不完全であると疑っている場合
- 関連研究セクションに古典的または最新の研究が欠けている可能性がある場合
- 論文提出前に、同時進行中の arXiv/OpenReview 論文を引用する必要がある場合
- 論文が、より強力な引用文献による裏付けを必要とする新規性主張をしている場合
- ユーザーが「重要な関連研究が欠けている」といった査読者の不満を減らしたい場合
citation-audit の代わりとして使用しないでください。このスキルの後に citation-audit を使用して、追加された BibTeX エントリと引用キーが正しいことを確認してください。
引用文献の欠落が新規性、ベースライン、関連研究、または査読リスクの追跡に影響する場合、このスキルを research-project-memory と組み合わせて使用してください。
スキルディレクトリのレイアウト
<installed-skill-dir>/
├── SKILL.md
└── references/
├── coverage-taxonomy.md
├── discovery-protocol.md
├── memory-model.md
└── report-template.md
段階的読み込み
- 常に
references/coverage-taxonomy.mdとreferences/discovery-protocol.mdを読んでください。 - 監査結果を作成する際は
references/report-template.mdを読んでください。 - トピック固有の引用文献網羅性知識を保存または再利用する際は
references/memory-model.mdを読んでください。 - 最新および同時進行中の研究については、現在のウェブ検索を使用してください。「最新」または「最近の」引用文献について、静的な記憶に頼らないでください。
核となる原則
- 密接な引用文献の欠落は、提出におけるリスクです。これらを参考文献の些細な問題ではなく、査読者にとっての問題として扱ってください。
- 古典的な基礎、最も近い先行研究、および最近の同時進行中の研究を区別してください。これらは異なる修辞的および査読者に対する機能を果たします。
- キーワードだけでなく、論文の主張から検索してください。手法論文、ベンチマーク論文、理論論文、および実証研究では、異なる引用文献網羅性が必要です。
- 一次資料を優先してください。公式論文、会議録ページ、arXiv、OpenReview、ACL Anthology、PMLR、CVF、ACM、IEEE、Springer、Semantic Scholar、DBLP、および著者のプロジェクトページなどです。
- 参考文献を水増ししないでください。特定の文、セクション、ベースライン、データセット、手法コンポーネント、定理、または新規性の境界を裏付ける場合にのみ、引用文献を推奨してください。
- 不確実性をマークしてください。候補が関連性があるように見えるが検証できない場合は、
needs-author-reviewとしてリストアップしてください。
ステップ 1 - 範囲の定義
以下を特定してください。
- ターゲットとなる発表場所と年
- トピックとサブトピック
- 論文の原型:手法、理論、実証研究、ベンチマーク/データセット、システム、分析、アプリケーション、またはハイブリッド
- 論文の段階:アウトライン、完全なドラフト、最終提出、リバッタル、カメラレディ
- 現在のソース形式:LaTeX、PDF、Markdown、メモ
- 最近の研究の検索範囲(例:過去6ヶ月、過去12ヶ月、または前回の会議締め切り以降)
- ユーザーがレポートのみを希望するか、BibTeX/散文パッチの提案も希望するか
デフォルトの検索範囲:
- 活発な ML/AI トピックの場合:過去12ヶ月
- 基礎モデル、拡散、推論、エージェント、アラインメント、マルチモーダル学習などの急速に変化するトピックの場合:過去6〜9ヶ月に加え、アクセス可能な場合は現在の OpenReview 提出物
- 理論または成熟したトピックの場合:古典的なものと過去24ヶ月を含む
ステップ 2 - 論文の主張と既存の網羅性を抽出
ドラフトを読み、以下を抽出してください。
- タイトルと要約
- 貢献の箇条書き
- 導入部の新規性主張
- 関連研究のカテゴリ
- 手法コンポーネント
- 定理の仮定または証明手法
- データセット、ベンチマーク、メトリクス、およびベースライン
- 実験の比較点
- 限界と範囲の主張
- 現在の引用キーと BibTeX エントリ
論文の引用マップを作成してください。
## 論文の引用マップ
- 主張:
- コアとなる手法/理論:
- 現在引用されている最も近い関連研究:
- 現在引用されている古典的な基礎:
- 現在引用されている最近/同時進行中の研究:
- 現在引用されているデータセット/ベンチマーク:
- 現在引用されているベースライン:
- 引用文献による裏付けが必要な新規性主張:
- 引用文献の網羅性が薄いセクション:
ドラフトが不完全な場合は、利用可能な主張を監査し、不足しているコンテキストをマークしてください。
ステップ 3 - 必要な引用文献カテゴリの分類
references/coverage-taxonomy.md を読んでください。
論文について、必要なバケットを定義してください。
- 基礎となる古典
- 最も近い先行研究
- 直接の競合
- 同時進行中の研究
- ベンチマーク/データセット/メトリクスのソース
- 手法/ツールコンポーネント
- 理論/証明手法のソース
- 否定的または限界に関連する引用文献
- 調査論文または分類論文
- 会場固有またはコミュニティ標準の引用文献
各バケットについて、査読者の認識にとってなぜそれが重要であるかを述べてください。
ステップ 4 - 欠落している研究の発見
references/discovery-protocol.md を読んでください。
繰り返し検索してください。
- 論文自身のタイトル/主張キーワードを使用する
- 各手法コンポーネントとベースラインを検索する
- 引用されている最も近い論文を、可能であれば前方および後方に検索する
- そのトピックについて、最近の arXiv/OpenReview/会議録を検索する
- ターゲットとなる会場が重要であれば、会場固有の採択/口頭/スポットライト論文を調査する
- 調査論文やベンチマークのリーダーボードを調べて、規範的な引用文献を見つける
最近/同時進行中の研究については、アクセス日と検索クエリを含めてください。検索結果は時間とともに変化します。
キーワードが一致するからといって、論文を推奨しないでください。各候補は、引用文献の役割にマッピングされる必要があります。
ステップ 5 - 候補の関連性を評価
欠落している各候補論文について、以下を分類してください。
must-cite:密接な先行研究、直接の競合、基礎的な引用文献、データセット/メトリクス/ソースの帰属、または新規性主張を裏付ける/限定するために必要な研究should-cite:関連する最近の研究、隣接する強力なベースライン、有用な調査論文、または査読者が期待する可能性のある重要な関連分野optional:関連研究を改善するが、査読に影響を与える可能性が低いコンテキストまたは広範な引用文献do-not-cite:キーワードは一致するが、科学的に関連性がないneeds-author-review:関連性はありそうだが、決定するのに十分な証拠がない
すべての must-cite または should-cite について、以下を指定してください。
- どこで
📜 原文 SKILL.md(Claudeが読む英語/中国語)を展開
Citation Coverage Audit
Audit whether a draft paper cites the works it should cite. This skill is about reference completeness: classic foundations, closest prior work, current concurrent work, benchmark/dataset/method attributions, and reviewer-sensitive omissions.
Use this skill when:
- the user has a draft paper but suspects the reference list is incomplete
- a related work section may miss classic or recent work
- the paper needs to cite concurrent arXiv/OpenReview papers before submission
- the paper makes novelty claims that require stronger citation support
- the user wants to reduce reviewer complaints like "missing important related work"
Do not use this as a replacement for citation-audit. Use citation-audit after this skill to verify that added BibTeX entries and citation keys are correct.
Pair this skill with research-project-memory when missing citations affect novelty, baseline, related-work, or reviewer-risk tracking.
Skill Directory Layout
<installed-skill-dir>/
├── SKILL.md
└── references/
├── coverage-taxonomy.md
├── discovery-protocol.md
├── memory-model.md
└── report-template.md
Progressive Loading
- Always read
references/coverage-taxonomy.mdandreferences/discovery-protocol.md. - Read
references/report-template.mdwhen writing the audit output. - Read
references/memory-model.mdwhen saving or reusing topic-specific citation coverage knowledge. - Use current web search for recent and concurrent work. Do not rely on static memory for "latest" or "recent" citations.
Core Principles
- Missing close citations are submission risks. Treat them as reviewer-facing problems, not bibliography trivia.
- Separate classic foundations, closest prior work, and recent concurrent work. They serve different rhetorical and reviewer functions.
- Search from the paper's claims, not just keywords. A method paper, benchmark paper, theory paper, and empirical study need different citation coverage.
- Prefer primary sources: official papers, proceedings pages, arXiv, OpenReview, ACL Anthology, PMLR, CVF, ACM, IEEE, Springer, Semantic Scholar, DBLP, and authors' project pages.
- Do not pad the bibliography. Recommend citations only when they support a specific sentence, section, baseline, dataset, method component, theorem, or novelty boundary.
- Mark uncertainty. If a candidate looks relevant but cannot be verified, list it as
needs-author-review.
Step 1 - Define Scope
Identify:
- target venue and year
- topic and subtopic
- paper archetype: method, theory, empirical study, benchmark/dataset, systems, analysis, application, or hybrid
- paper stage: outline, full draft, final submission, rebuttal, camera-ready
- current source format: LaTeX, PDF, Markdown, notes
- search horizon for recent work, such as last 6 months, last 12 months, or since the previous conference deadline
- whether the user wants a report only or also BibTeX/prose patch suggestions
Default search horizon:
- for active ML/AI topics: last 12 months
- for fast-moving topics such as foundation models, diffusion, reasoning, agents, alignment, or multimodal learning: last 6-9 months plus current OpenReview submissions if accessible
- for theory or mature topics: include classics and last 24 months
Step 2 - Extract Paper Claims and Existing Coverage
Read the draft and extract:
- title and abstract
- contribution bullets
- introduction novelty claims
- related work categories
- method components
- theorem assumptions or proof techniques
- datasets, benchmarks, metrics, and baselines
- experiment comparison points
- limitation and scope claims
- current citation keys and BibTeX entries
Build a paper citation map:
## Paper Citation Map
- Main claim:
- Core method/theory:
- Closest related work currently cited:
- Classic foundations currently cited:
- Recent/concurrent work currently cited:
- Datasets/benchmarks currently cited:
- Baselines currently cited:
- Novelty claims requiring citation support:
- Sections with thin citation coverage:
If the draft is incomplete, audit the available claims and mark missing context.
Step 3 - Classify Required Citation Categories
Read references/coverage-taxonomy.md.
For the paper, define required buckets:
- foundational classics
- closest prior work
- direct competitors
- concurrent work
- benchmark/dataset/metric sources
- method/tooling components
- theory/proof technique sources
- negative or limitation-related citations
- surveys or taxonomy papers
- venue-specific or community-standard citations
For each bucket, state why it matters for reviewer perception.
Step 4 - Discover Missing Work
Read references/discovery-protocol.md.
Search iteratively:
- use the paper's own title/claim keywords
- search each method component and baseline
- search closest cited papers forward and backward when possible
- search recent arXiv/OpenReview/proceedings for the topic
- search venue-specific accepted/oral/spotlight papers if the target venue matters
- inspect surveys or benchmark leaderboards for canonical citations
For recent/concurrent work, include access dates and search queries. Search results change over time.
Do not recommend a paper only because it shares keywords. Each candidate must map to a citation role.
Step 5 - Evaluate Candidate Relevance
For each candidate missing paper, classify:
must-cite: close prior work, direct competitor, foundational citation, dataset/metric/source attribution, or work required to support/qualify a novelty claimshould-cite: relevant recent work, adjacent strong baseline, useful survey, or important related line reviewers may expectoptional: context or breadth citation that improves related work but is unlikely to affect reviewdo-not-cite: keyword match but not scientifically relevantneeds-author-review: relevance plausible but not enough evidence to decide
For every must-cite or should-cite, specify:
- where to cite it
- what claim it supports or qualifies
- how it changes novelty framing
- whether it needs BibTeX
- whether it suggests new experiments or baselines
Step 6 - Check Novelty and Reviewer Risk
For each novelty claim, ask:
- Is the closest prior work cited?
- Is the difference stated correctly?
- Would a reviewer expect this missing paper?
- Does the missing paper weaken the novelty claim?
- Does it require a new baseline, ablation, theorem comparison, or discussion?
Risk levels:
blocking: missing citation could make a novelty claim look false or unethicalhigh: reviewer likely complains about missing related workmedium: omission weakens positioning but probably not fatallow: useful completeness citation
Step 7 - Produce Coverage Report
Use references/report-template.md.
The report should include:
- paper citation map
- search strategy and search date
- candidate missing citations
- must-cite and should-cite recommendations
- exact insertion points
- novelty-framing updates
- baseline/experiment implications
- unresolved author decisions
If the user wants a saved report and gives no path, use:
docs/reports/citation_coverage_audit_YYYY-MM-DD.md
Step 8 - Optional BibTeX and Text Patches
If the user asks for edits:
- add BibTeX only from verified metadata
- insert citations at the smallest safe location
- do not make broad related-work rewrites unless asked
- do not cite papers you have not verified enough to identify
- after edits, run or recommend
citation-auditto verify keys and metadata
When exact prose is uncertain, write a suggested sentence in the report instead of editing the paper.
Step 9 - Update Citation Coverage Memory
Read references/memory-model.md.
When a topic scan was performed:
- update
.agent/citation-coverage/topics/<topic-slug>.md - update
.agent/citation-coverage/project-coverage.md - record search queries, access dates, candidate papers, and decisions
Memory must separate:
- canonical papers for the topic
- recent/concurrent papers with access dates
- papers already cited
- papers intentionally not cited
- unresolved author decisions
If the project uses research-project-memory, also update:
memory/risk-board.md: missing closest-work, classic, benchmark, baseline, or concurrent-work risksmemory/action-board.md: add-citation, check-bibtex, add-baseline, revise-novelty, or author-review actionsmemory/claim-board.md: novelty claims that must be weakened or qualifiedmemory/evidence-board.md: citation evidence for claims when a paper directly supports or limits a claimpaper/.agent/paper-status.md: related-work sections or insertion points that need edits
Use needs-verification for candidate papers not yet read deeply enough.
Final Sanity Check
Before finalizing:
- classic, closest, and recent/concurrent work were considered separately
- search queries and dates are recorded
- every recommended paper has a citation role
- must-cite recommendations include insertion points
- novelty risks are explicit
- uncertain candidates are not presented as verified
- any edits are followed by a recommendation to run
citation-audit