LJG-Xray-Paper: 论文解读

你要做两件事,仅两件:

25 stars

Best use case

LJG-Xray-Paper: 论文解读 is best used when you need a repeatable AI agent workflow instead of a one-off prompt.

你要做两件事,仅两件:

Teams using LJG-Xray-Paper: 论文解读 should expect a more consistent output, faster repeated execution, less prompt rewriting.

When to use this skill

  • You want a reusable workflow that can be run more than once with consistent structure.

When not to use this skill

  • You only need a quick one-off answer and do not need a reusable workflow.
  • You cannot install or maintain the underlying files, dependencies, or repository context.

Installation

Claude Code / Cursor / Codex

$curl -o ~/.claude/skills/ljg-xray-paper/SKILL.md --create-dirs "https://raw.githubusercontent.com/ComeOnOliver/skillshub/main/skills/lijigang/ljg-skill-xray-paper/ljg-xray-paper/SKILL.md"

Manual Installation

  1. Download SKILL.md from GitHub
  2. Place it in .claude/skills/ljg-xray-paper/SKILL.md inside your project
  3. Restart your AI agent — it will auto-discover the skill

How LJG-Xray-Paper: 论文解读 Compares

Feature / AgentLJG-Xray-Paper: 论文解读Standard Approach
Platform SupportNot specifiedLimited / Varies
Context Awareness High Baseline
Installation ComplexityUnknownN/A

Frequently Asked Questions

What does this skill do?

你要做两件事,仅两件:

Where can I find the source code?

You can find the source code on GitHub using the link provided at the top of the page.

SKILL.md Source

# LJG-Xray-Paper: 论文解读

你要做两件事,仅两件:
1. **论文说了什么**:问题 → 视角 → 结果
2. **对我意味着什么**:认知卡片(ASCII art 直观展示启发)

其它一切都服务于这两件事。

## 约束

### L0: 通用约束

#### Org-mode 语法

- 加粗用 `*bold*`(单星号),禁止 `**bold**`
- 标题层级从 `*` 开始,不跳级

#### ASCII Art

所有图表、拓扑、卡片,一律使用纯 ASCII 字符绘制。

允许字符集:`+ - | / \ > < v ^ * = ~ . : # [ ] ( ) _ , ; ! ' "`  和空格。

禁止一切 Unicode 绘图符号,包括但不限于:
`─ │ ┌ ┐ └ ┘ ├ ┤ ┬ ┴ ┼ ═ ║ ╔ ╗ ╚ ╝ ╠ ╣ ╦ ╩ ╬ ▼ ▲ ► ◄ → ← ↑ ↓ ● ○ ■ □ ◆ ◇`

例外:输出目标为 HTML 文件(浏览器渲染)的 skill 不受此限。

#### Denote 文件规范

- 时间戳获取:`date +%Y%m%dT%H%M%S`
- 可读时间获取:`date "+%Y-%m-%d %a %H:%M"`
- 文件名格式:`{时间戳}--{标题关键词}__{标签}.org`
- 输出目录:`~/Documents/notes/`
- 视觉类输出(HTML/PNG)例外:`~/Downloads/` 或 `/tmp/`

#### Org 文件头

```
#+title:      {标题}
#+date:       [{YYYY-MM-DD Day HH:MM}]
#+filetags:   :{标签}:
#+identifier: {YYYYMMDDTHHMMSS}
```

#### 完成动作

文件写入后,向用户报告文件路径。

### L1: 认知类约束

#### 认知基线加载

执行分析前,读取以下文件建立认知基线:

1. `~/Documents/know/soul.md` — 世界观、思维范式、核心信念
2. `~/Documents/know/memory.md` — 长期记忆、知识连接

#### 诚实原则

- delta ≈ 0 是正常结果,不硬凑
- 没有碰撞就不造卡片
- 搜不到的信息标注「信息不足」,不编造
- 压不成一句话 = 还没想透,继续想,别糊弄

#### 认知碰撞卡片

卡片 = ASCII art,视觉优先。

好卡片的标准:遮住文字只看线条,仍能感受到结构关系(分叉、汇聚、层级、对比、拉扯)。

反面教材——文字列表伪装成卡片:

```
+------------------+
| 论文说: X        |
| 我原来想: Y      |
| 现在变成: Z      |
+------------------+
```

这不是卡片,是带框的文字。结构关系要用空间布局表达,不是用标签声明。

每张卡片锚定一个具体场景:一个思考方式、一个决策场景、或一个认知盲区的改变。卡片下方附一句金句级启发——能脱离上下文单独成立。

## 执行步骤

### 步骤 1:接收论文并预处理输入

| 用户输入 | 转换规则 |
|---------|---------|
| `2601.01290` 或 `arxiv:2601.01290` | → `https://arxiv.org/html/2601.01290` |
| `https://arxiv.org/abs/...` 或 `.../pdf/...` | → 替换为 `/html/` |
| `https://arxiv.org/html/...` | 直接使用 |
| 其他 URL 或 PDF 路径 | 按原有逻辑处理 |

arxiv 论文一律转为 `/html/` 格式,HTML 版本可直接 WebFetch 抓取全文。

提取标题、作者,填入报告头部。

### 步骤 2:加载认知参照系

执行认知基线加载(见约束 L1)。

### 步骤 3:论文说了什么

像跟聪明朋友在饭桌上说"这篇论文干了个什么事"——三句话,人话,不要论文八股:
- **问题**:作者要解决什么?
- **视角**:用什么方法/切入角度?
- **结果**:得到了什么?用"实验证明"和"作者推测"自然区分。推测性结论如果有趣,在步骤 4 做成"开放问题"碰撞卡片

**零术语规则**:每个技术概念必须立刻落在读者见过的事情上。不给例子就不准用那个词。

坏:"共现概率只取决于隐含空间中的距离(平移对称性)"
好:"一月和二月经常出现在同一段话里,一月和七月就很少——距离越近越常一起出现"

道理要长在场景里,不是贴在标签上。

**承重概念场景化**:每篇论文有 2-3 个"承重概念"——去掉它们论文的论证就塌了。这些概念不能用括号注释一笔带过("gamma:条件熵衰减指数")。括号注释是给已经懂的人的提示,不是解释。对每个承重概念:

1. 先找一个读者亲身经历过的场景(群聊记录、排队、找路...)
2. 在场景中逐步展开——至少 3 级渐进,让读者在熟悉的事情上"感受到"这个概念在变化
3. 最后才贴技术名字。此时名字是标签,不是定义

判断标准:去掉技术名字,读者仍然知道你在说什么 = 落地成功。只剩括号注释 = 失败。

概念之间的关系同样场景化。不是"alpha 是 gamma 和 beta 的比值",而是"远处信息的性价比:值多少分 / 有多难够到 = scaling 有多陡"。

普通术语一句话类比即可,不需要场景展开。区分承重与非承重是关键判断。

最后压成一句大白话——像你在电梯里跟完全不懂这个领域的朋友说"这篇论文就是说……"。不准用术语,不准超过一句话。压不成 = 还没想透,继续想。

配一张餐巾纸图(ASCII),画出核心机制。

### 步骤 4:对我意味着什么

读完这篇论文,我带走什么?

先用一句话回答:这篇论文的思想,可能改变我的什么?指向一个具体的思考习惯、决策模式、或认知盲区。不是"让我更了解 X"——那是信息增量,不是改变。如果找不到改变,诚实写"delta ≈ 0"。

soul.md + memory.md 提供"我是谁"的背景,但启发不限于已记录的条目。任何能提升我的决策质量的洞见都值得一张卡片:
- 一个可以直接用的思维工具(之前没有的)
- 一个改变了某个判断的新证据
- 一个没想过的角度或盲区
- 一个对已有认知的补充或修正

对每个有启发的点,生成一张认知卡片(ASCII art)。卡片质量标准见约束 L1。

卡片要直观展示:这个洞见如何改变我的某个思考方式、决策习惯、或打开一个盲区。看一眼就能 get 到启发在哪里。

**本 skill 的好卡片示例**——分叉型:
```
  Soul: "做了才懂"
        |
        |  但如果结构藏得太深...
        v
  +------------------+
  | 反馈能暴露结构?   |
  +---+----------+---+
      |          |
     YES         NO
      |          |
   生成优先    降秩优先
  (原路径)   (先看再做)
      |          |
      |     CTA: 0% vs 94%
      v          v
   Soul 成立   Soul 需加边界
```

阈值型(不是线性的,有个转折点):
```
  我以为: 投入越多,产出越多(线性)

  投入 ----+----+----+----+----+---->
           |    |    |    |    |
  产出     .    .    .    .    .   线性预期
           .    .    .   /
  实际     .    .    . _/         <-- 阈值
           .    .    ./
           .____.___.'............   无效区
           |
       "原来这段全是白费的"
           |
           v
  决策改变: 不追问"做了多少"
            要追问"过没过线"
```

碰撞有多种形状——分叉、张力、阈值、缺口、翻转。选跟碰撞本身匹配的空间结构,不要把所有碰撞都压成同一种图。

论文的推测性观点如果有趣,也做成碰撞卡片——标注"开放问题",只有方向没有结论。写一个尖锐的问题,不是温和的 checkbox。值得追就追得下去,不值得追一眼就知道。

### 步骤 5:生成 Org 报告

1. 按 Denote 文件规范(见约束 L0)获取时间戳
2. 文件名:`{时间戳}--paper-{简短标题}__read.org`
3. 读取 `references/template.org` 获取报告结构,按模板填充
4. 写入 `~/Documents/notes/{文件名}`

## 输出质量标准

- **只有两个部分**:论文说了什么 + 对我意味着什么。不加别的

Related Skills

Paper Slide Deck Generator

25
from ComeOnOliver/skillshub

Transform academic papers and content into professional slide deck images with automatic figure extraction.

Paper Summary & Review Skill

25
from ComeOnOliver/skillshub

## 功能描述

paper-expert-generator

25
from ComeOnOliver/skillshub

Generate a specialized domain-expert research agent modeled on PaperClaw architecture. Use this skill when a user wants to create an AI agent that can automatically search, filter, summarize, and evaluate academic papers in a specific research field. Trigger phrases include help me create a paper tracking agent for my field, I want an agent to monitor latest papers in bioinformatics, build me a paper review agent for computer vision, create a PaperClaw-style agent for my domain, generate a domain-specific paper expert agent. The generated agent is a complete OpenClaw agent with all required skills (arxiv-search, semantic-scholar, paper-review, daily-search, weekly-report) fully adapted for the target domain.

Daily Paper Search Skill

25
from ComeOnOliver/skillshub

## 功能描述

Xray

25
from ComeOnOliver/skillshub

## Overview

ML Paper Writing for Top AI & Systems Conferences

25
from ComeOnOliver/skillshub

Expert-level guidance for writing publication-ready papers targeting **NeurIPS, ICML, ICLR, ACL, AAAI, COLM** (ML/AI venues) and **OSDI, NSDI, ASPLOS, SOSP** (Systems venues). This skill combines writing philosophy from top researchers (Nanda, Farquhar, Karpathy, Lipton, Steinhardt) with practical tools: LaTeX templates, citation verification APIs, and conference checklists.

Paper2All: Academic Paper Transformation Pipeline

25
from ComeOnOliver/skillshub

## Overview

BGPT Paper Search

25
from ComeOnOliver/skillshub

## Overview

Daily Logs

25
from ComeOnOliver/skillshub

Record the user's daily activities, progress, decisions, and learnings in a structured, chronological format.

Socratic Method: The Dialectic Engine

25
from ComeOnOliver/skillshub

This skill transforms Claude into a Socratic agent — a cognitive partner who guides

Sokratische Methode: Die Dialektik-Maschine

25
from ComeOnOliver/skillshub

Dieser Skill verwandelt Claude in einen sokratischen Agenten — einen kognitiven Partner, der Nutzende durch systematisches Fragen zur Wissensentdeckung führt, anstatt direkt zu instruieren.

College Football Data (CFB)

25
from ComeOnOliver/skillshub

Before writing queries, consult `references/api-reference.md` for endpoints, conference IDs, team IDs, and data shapes.