Open citation graph, prompt-driven — reach 313M+ scholarly works in one line.
Open citation graph, prompt-driven — 313M+ 학술논문에 한 줄로 닿기.
OpenAlex is a free, token-free open scholarly metadata graph. Claude Code is the controller that turns natural-language prompts into API calls, parsing, analysis, and visualization in one continuous flow. This guide threads the two together as a citation-graph automation workflow — using Discourse Lens v2 as a case study.
OpenAlex는 토큰 없이 무료로 부르는 오픈 학술 메타데이터 그래프이고, Claude Code는 자연어 프롬프트를 API 호출 + 정제 + 분석 + 시각화로 바로 잇는 컨트롤러입니다. 이 가이드는 둘을 묶어 인용 그래프 자동화 워크플로를 한 호흡으로 짜는 법을 다룹니다 — Discourse Lens v2를 케이스 스터디로.
Researchers waste hours every week on the same citation-lookup loop — search Google Scholar, copy a BibTeX, paste into Zotero, repeat. This guide compresses that loop into a single Claude Code prompt, then teaches the mental model so the technique scales beyond one-off questions. The goal is not to demo a clever tool, but to durably change how a working researcher gathers literature evidence.
연구자들은 매주 똑같은 인용 lookup 루프에 몇 시간씩 씁니다 — Google Scholar 검색, BibTeX 복사, Zotero 붙여넣기, 반복. 이 가이드는 그 루프를 Claude Code 프롬프트 한 줄로 압축하고, 일회성을 넘어 패턴으로 자라게 하는 사고법을 가르칩니다. 목적은 멋진 도구 데모가 아니라, 현업 연구자가 문헌 증거를 모으는 방식 자체를 지속 가능한 형태로 바꾸는 것.
Researchers who currently do bibliometric tasks by hand more than once a week — literature scans, citation tracking, journal-level analyses, systematic-review prescreening. Lab PIs who want RAs to skip the BibTeX-grabbing slog. Beginners who can run a terminal command but have never called an API. The orientation chapter (§ 0) brings total novices up to speed in five minutes.
매주 한 번 이상 서지정보 작업을 손으로 하는 연구자 — 문헌 검색, 인용 추적, 저널 단위 분석, 메타분석 사전 스크리닝. 학생들에게 BibTeX 긁는 잡일을 줄여주고 싶은 PI. 터미널 명령어는 칠 수 있지만 API는 한 번도 안 써본 입문자. 오리엔테이션 챕터(§ 0)가 5분 안에 기본기까지 따라잡게 합니다.
After working through this guide, you can: pull a journal's full 10-year publication record in two prompts; walk a citation graph in either direction without writing pagination code yourself; decompose any new bibliometric question into an executable API sequence using the § 9 five-step funnel; and build a small reproducible automation (Pattern B) that survives across projects and collaborators.
가이드를 끝까지 읽으면: 두 프롬프트로 한 저널의 10년 출판 기록을 가져오고; 인용 그래프를 양방향으로 페이지네이션 코드 없이 따라가고; 새로운 서지정보 질문을 실행 가능한 API 시퀀스로 분해(§ 9의 5단계 깔때기)할 수 있고; 프로젝트·협업자가 바뀌어도 살아남는 재현 가능한 작은 자동화 (Pattern B)를 만들 수 있게 됩니다.
Not a replacement for OpenAlex's official specification (defer to developers.openalex.org for field-level details). Not a citation-analysis methods textbook (no bibliometric statistics, no h-index theory, no journal impact discussion). Not a general LLM tutorial — it assumes Claude Code is installed and you can run a terminal command. Every example was verified against OpenAlex API behavior as of 2026-05; the Discourse Lens case study uses synthetic outputs purely as illustration, not a real analysis report.
OpenAlex 공식 명세를 대체하지 않습니다 (필드 수준 세부는 developers.openalex.org 참조). 인용 분석 방법론 교재 아님 (서지통계·h-index 이론·저널 임팩트 논의 없음). 일반 LLM 튜토리얼 아님 — Claude Code가 이미 설치되어 있고 터미널 명령어 한 줄 실행 가능하다는 전제. 모든 예시는 2026-05 기준 OpenAlex API 동작에서 확인됐고, Discourse Lens 케이스의 합성 결과는 예시일 뿐 실제 분석 보고가 아닙니다.
Orientation for beginners
초보자를 위한 오리엔테이션
If words like "API," "JSON," or "citation graph" feel slippery, this chapter is for you. If you've already wired any HTTP API to a script before, skip ahead to Chapter 03.
"API", "JSON", "citation graph" 같은 단어가 아직 낯설다면 이 챕터부터 읽으세요. HTTP API를 한 번이라도 스크립트로 불러본 경험이 있다면 Chapter 03으로 점프해도 OK.
Where should I start?
어디서부터 읽을까?
| If you...상황 | Start at시작 챕터 |
|---|---|
| have never called any API beforeAPI라는 걸 호출해본 적 없음 | Right here, then §3 → §5 → §9바로 여기, 그다음 §3 → §5 → §9 |
| have used HTTP APIs but not OpenAlexHTTP API는 써봤지만 OpenAlex는 처음 | Jump to §3§3로 점프 |
| know OpenAlex but want to wire it to Claude CodeOpenAlex 알지만 Claude Code 연결이 처음 | Jump to §5§5로 점프 |
| just want copy-paste promptscopy-paste 프롬프트만 필요 | Jump to §12§12로 점프 |
What you need before you start
시작 전 준비물
- An email address. That's it — OpenAlex has no signup.
- A web browser (to test URLs by pasting them).
- To follow Pattern A: Claude Code installed (claude.ai/code or your IDE plugin).
- 이메일 주소. 그게 전부예요 — OpenAlex는 가입 없음.
- 웹 브라우저 (URL 붙여넣기 테스트용).
- Pattern A를 따라하려면: Claude Code 설치됨 (claude.ai/code 또는 IDE 플러그인).
- Python 3.9 or later.
- A terminal (PowerShell on Windows; Terminal.app on macOS) where you can run
python helper.py. - Pattern B adds Python; Pattern C adds Node.js. Pattern A is Claude Code only.
- Python 3.9 이상.
- 터미널 (Windows PowerShell, macOS Terminal.app)에서
python helper.py실행 가능. - Pattern B는 Python 추가, C는 Node.js 추가. A는 Claude Code만으로 OK.
What's an API? — the 60-second version
API가 뭔가요? — 60초 설명
An API (Application Programming Interface) is a structured way for one program to ask another program for data. Think of a vending machine: you press buttons in a defined pattern and the machine returns a defined result. Press "B4" and a chocolate bar drops; send GET /works/W2741809807 to OpenAlex and you get one paper's metadata back.
API (Application Programming Interface)는 한 프로그램이 다른 프로그램한테 데이터를 정해진 방식으로 요청하는 통로입니다. 자판기와 비슷해요. "B4"를 누르면 초콜릿이 나오는 것처럼, OpenAlex에 GET /works/W2741809807를 보내면 그 논문 한 편의 메타데이터가 돌아옵니다.
OpenAlex's API "speaks" via plain URLs over HTTPS. Paste an OpenAlex URL into your browser and you'll get the answer right there as JSON. No special client library needed.
OpenAlex API는 HTTPS 위의 일반 URL로 "말합니다". 브라우저에 OpenAlex URL을 붙여넣으면 바로 그 자리에 JSON으로 답이 나와요. 특별한 클라이언트 라이브러리 필요 없음.
What's JSON?
JSON이란?
JSON (JavaScript Object Notation) is a way to write structured data using nested keys and values. Imagine a spreadsheet whose cells can themselves contain spreadsheets. The OpenAlex response for one paper looks like this (truncated):
JSON (JavaScript Object Notation)은 키와 값을 중첩해서 구조화된 데이터를 표현하는 방식입니다. 셀 안에 다시 표가 들어가는 스프레드시트라고 생각하면 됩니다. OpenAlex가 논문 한 편을 돌려줄 때 이렇게 생겼어요 (일부 생략):
Don't worry about reading every field. The helper script (Pattern B) extracts only the fields you need.
모든 필드를 다 읽을 필요는 없어요. 헬퍼 스크립트 (Pattern B)가 필요한 것만 뽑아냅니다.
What's a "citation graph"?
"인용 그래프"가 뭔가요?
A citation graph is a network where each node is a paper and each edge is "this paper cited that one." OpenAlex stores both directions of every edge:
인용 그래프는 노드가 논문이고 엣지가 "A가 B를 인용했다"인 네트워크입니다. OpenAlex는 모든 엣지를 양방향으로 저장합니다:
referenced_works— papers this paper cited (looking backward in time)cited_by_count+ filtercites:W…— papers that cited this one (looking forward in time)
referenced_works— 이 논문이 인용한 논문들 (과거 방향)cited_by_count+ 필터cites:W…— 이 논문을 인용한 논문들 (미래 방향)
Your first OpenAlex call — 30 seconds, no install
첫 OpenAlex 호출 — 30초, 설치 불필요
Paste this URL into any web browser:
아래 URL을 브라우저에 붙여넣으세요:
You should see a wall of JSON. Congratulations — you just used the OpenAlex API. The same URL works from curl, Python, R, or a Claude Code prompt.
JSON 덩어리가 보일 거예요. 축하합니다 — 방금 OpenAlex API를 호출하신 겁니다. 같은 URL이 curl, Python, R, Claude Code 프롬프트 어디서든 작동해요.
Most paid APIs (Twitter, Google, OpenAI) require a key tied to a credit card. OpenAlex is publicly funded and CC0-licensed, so its key is free — you sign up with an email and get $1/day of credit (effectively unlimited for ordinary research). The browser test above uses no key but lands in the unkeyed $0.01/day pool, which is fine for a one-shot test. For real automation, store your free key as the env var OPENALEX_KEY so it stays out of prompts. Details in § 4.
유료 API (Twitter, Google, OpenAI)는 보통 신용카드 연동 키를 요구합니다. OpenAlex는 공공 자금 + CC0 라이선스라 키가 무료 — 이메일로 가입하면 $1/일 크레딧 (일반 연구엔 사실상 무제한). 위 브라우저 테스트는 키 없이 호출되는 $0.01/일 풀로 들어가는데, 한 번 찔러보는 용도엔 문제 없어요. 실제 자동화에는 무료 키를 환경변수 OPENALEX_KEY에 저장해서 프롬프트에 노출되지 않게. 상세 § 4.
Mini glossary — terms you'll hit in this guide
미니 용어집 — 본 가이드에 나올 용어
Open any term to expand its definition. These come back throughout the guide.
아래 용어를 펼쳐 보세요. 가이드 곳곳에서 다시 등장합니다.
DOI · ORCID · ROR · ISSN
DOI = a permanent ID for a paper, looks like 10.1038/nature12373. ORCID = a permanent ID for a researcher, like 0000-0001-2345-6789. ROR = a permanent ID for an institution. ISSN = a permanent ID for a journal. OpenAlex links all of these together so you can pivot between papers, authors, institutions, and journals with a single ID lookup.
DOI = 논문의 영구 ID, 10.1038/nature12373 같은 모양. ORCID = 연구자의 영구 ID, 0000-0001-2345-6789. ROR = 기관의 영구 ID. ISSN = 저널의 영구 ID. OpenAlex는 이 ID들을 모두 묶어 연결합니다 — 논문↔저자↔기관↔저널을 한 번의 lookup으로 횡단 가능.
Crossref
The non-profit registry that issues DOIs to publishers. OpenAlex pulls reference data from Crossref's index, so any paper with a registered DOI is potentially visible. Most journals participate; many conference proceedings and book chapters do not, which is one reason citation counts can be lower in OpenAlex than in Google Scholar.
출판사에 DOI를 발급하는 비영리 레지스트리. OpenAlex는 Crossref 인덱스에서 참고문헌 데이터를 가져옵니다. 등록된 DOI가 있는 논문은 OpenAlex에서 보일 수 있어요. 대부분의 저널은 참여하지만, conference proceedings과 책 챕터는 참여 안 하는 경우가 많아 OpenAlex의 인용수가 Google Scholar보다 낮은 이유 중 하나입니다.
EndpointEndpoint (엔드포인트)
A specific path on an API server that returns a specific kind of thing. /works, /authors, /sources are three of OpenAlex's seven endpoints — each is one "doorway" into the data.
특정 종류의 자료를 돌려주는 API 서버의 특정 경로. /works, /authors, /sources 등 OpenAlex의 7개가 그것 — 각각 데이터로 들어가는 한 "출입구"입니다.
Pagination · cursor페이지네이션 · cursor
When a query returns more results than fit in one response (200 max for OpenAlex), you ask for "the next page." Modern OpenAlex uses cursors: each response gives you a token (next_cursor) you pass back to get the next chunk. Continue until next_cursor is null. The helper's paginate() function does this for you automatically.
한 번의 응답에 안 들어가는 큰 결과를 받으려면 "다음 페이지"를 요청해야 해요 (OpenAlex는 페이지당 최대 200건). 요즘 OpenAlex는 cursor 방식을 씁니다 — 각 응답이 다음 페이지용 토큰(next_cursor)을 주고, 그걸 다시 넘기면 다음 묶음이 옵니다. next_cursor가 null이 될 때까지 반복. 헬퍼의 paginate() 함수가 자동으로 처리해요.
API key (replaces the old polite pool)API 키 (옛 polite pool 대체)
From 2026-02-13 the old mailto "polite pool" model is retired. Every API call now needs an api_key parameter. The key is free — sign in at openalex.org/settings/api, copy the key, store it as an env var (OPENALEX_KEY), and let the helper inject it. With a free key you get $1/day of credits (effectively unlimited for ordinary research). Without a key you only get $0.01/day — not enough for automation. Details in § 4.
2026-02-13부터 옛 mailto "polite pool" 모델은 폐기됐습니다. 모든 API 호출에 api_key 파라미터가 필요해요. 키는 무료 — openalex.org/settings/api에 로그인해 키를 복사, 환경변수(OPENALEX_KEY)로 저장, 헬퍼가 주입. 무료 키는 $1/일 크레딧 (일반 연구엔 사실상 무제한). 키 없으면 $0.01/일 — 자동화 불가. 상세는 § 4.
"1-hop" · forward · backward"1-hop" · forward · backward
A "hop" is one edge in the citation graph. From paper A: 1-hop forward = papers that cited A. 1-hop backward = papers A cited. 2-hop forward = papers that cited papers that cited A (rapidly explosive). Most analyses limit to 1-hop in either direction unless the topic justifies more.
"hop"은 인용 그래프의 한 엣지. 논문 A에서: 1-hop forward = A를 인용한 논문들. 1-hop backward = A가 인용한 논문들. 2-hop forward = "A를 인용한 논문을 다시 인용한 논문들" (급격히 폭발). 토픽이 정당화하지 않는 한 양 방향 모두 1-hop으로 제한.
JSONL · CSV
JSONL = "JSON Lines." One JSON object per line. Used because you can stream-read each line independently — great for batches of 10K+ records that don't fit in memory at once. CSV = comma-separated values, the spreadsheet-friendly flat table.
JSONL = "JSON Lines." 한 줄에 JSON 한 객체. 한 줄씩 스트리밍 읽기가 가능해서 1만 건 이상의 대용량을 메모리에 다 안 올리고 처리할 수 있어요. CSV = 쉼표 구분, 스프레드시트 친화적 평면 테이블.
Claude Code · Bash · WebFetch
Claude Code = Anthropic's CLI / IDE plugin where you ask Claude to do programming tasks in plain language. Bash = the standard Unix shell; Claude can execute commands via a Bash tool. WebFetch = Claude's built-in tool for fetching URLs (lighter than Bash + curl). For OpenAlex, both work.
Claude Code = Anthropic의 CLI / IDE 플러그인. 자연어로 Claude한테 프로그래밍 작업을 시킵니다. Bash = 표준 Unix shell; Claude가 Bash 도구로 명령어를 실행. WebFetch = Claude 내장 URL 가져오기 도구 (Bash + curl보다 가벼움). OpenAlex는 둘 다 통합니다.
Filter · search · group_byFilter · search · group_by
search = full-text query over title + abstract; ranked by relevance. filter = exact-match constraint on a specific field (year, OA, source ID, ...). group_by = aggregate counts by a field (e.g., publication_year) instead of listing individual records. Combine: ?search=AI&filter=publication_year:>2022&group_by=type.
search = 제목 + 초록 풀텍스트 쿼리; 관련도순 랭킹. filter = 특정 필드의 정확 일치 조건 (연도, OA, 소스 ID, ...). group_by = 개별 레코드 대신 특정 필드(예: 출판년도) 별 카운트로 집계. 조합 예: ?search=AI&filter=publication_year:>2022&group_by=type.
Vocabulary in place — head to Chapter 01 to see why this combo matters, or jump to Chapter 03 if you want the technical body.
기본 어휘가 잡혔으면 Chapter 01로 이동해서 왜 이 조합이 중요한지 보거나, 바로 기술적 본체가 보고 싶으면 Chapter 03으로 점프.
Why "OpenAlex + Claude Code"?
왜 "OpenAlex + Claude Code"인가
Workflows like /research, /content, and /analysis all stand on a single class of question — who, when, what, and how was cited? The conventional answer cycle is: Google Scholar search → grab BibTeX → tidy in Zotero. That's fine once. Repeated across a serious literature scan, it eats hours every week.
/research, /content, /analysis 워크플로는 모두 "누가, 언제, 무엇을, 어떻게 인용했나"라는 질문 위에 서 있습니다. 이 답을 매번 Google Scholar 검색 → BibTeX 긁기 → Zotero 정리로 얻으면 한 번이면 괜찮지만, 자료조사를 본격적으로 시작하면 같은 작업을 수십 번 반복합니다.
OpenAlex collapses that cycle into a single API call. It's an open scholarly metadata graph that integrates Crossref, ORCID, the (former) Microsoft Academic Graph, and ROR — all callable for free without a token. Claude Code is what threads natural-language prompts through OpenAlex API calls, into result parsing, analysis, and visualization, all in one go.
OpenAlex는 이 루프를 API 호출 한 번으로 압축합니다. Crossref + ORCID + (구) Microsoft Academic + ROR을 통합한 오픈 학술 메타데이터 그래프이고, 토큰 없이 무료로 호출할 수 있어요. Claude Code는 자연어 프롬프트를 OpenAlex API 호출 + 결과 파싱 + 분석 + 시각화로 바로 연결해주는 컨트롤러입니다.
① OpenAlex basics — what's in it and how to call it. ② Claude Code integration — the prompt / script / MCP triad. ③ Research logic — how to decompose an idea into an API sequence.
① OpenAlex 기본기 — 무엇이 있고 어떻게 부르나. ② Claude Code 연결 — 프롬프트 / 스크립트 / MCP 3패턴. ③ 연구 실행 논리 — 연구 아이디어를 API 시퀀스로 분해하는 사고법.
What you'll be able to do unaided
무엇을 자력으로 할 수 있게 되나
- Pull the full publication list of a journal / author / topic in one call
- Walk both directions of a citation graph — what a paper cites, and what cites it
- Build year-by-year, journal-by-journal, author-by-author citation matrices
- Set up review-automation workflows like "five most-cited papers that cited this one"
- Decompose a new research idea into an API sequence so the data flow is designed before the first call
- 특정 저널·저자·토픽의 전체 논문 리스트를 한 번에 받아오기
- 한 논문이 어떤 논문을 인용했고, 어떤 논문에 인용됐는지 양방향으로 따라가기
- 연도별·저널별·저자별 인용 매트릭스 만들기
- "이 논문 인용한 최근 5편" 같은 리뷰 자동화 워크플로 짜기
- 새 연구 아이디어를 API 시퀀스로 분해해서 데이터 흐름을 설계하기
Prerequisites: comfortable enough at a terminal to run a one-line command. Python experience helps but isn't required — every example in this guide is dispatched as a single Claude Code prompt.
필요한 사전 지식: 터미널에서 명령어 한두 줄 실행할 수 있으면 충분합니다. Python 사용 경험은 도움되지만 필수는 아니에요 — 본 가이드의 모든 예시는 Claude Code 프롬프트 한 줄로 처리됩니다.
Entity model + 5 URL patterns
엔티티 모델 + URL 문법 5패턴
OpenAlex is run by the non-profit OurResearch. It assumed the role of the discontinued Microsoft Academic Graph (MAG) in 2022. All data is CC0 (public domain), the API is free, and a complete monthly dump (~330 GB) is published.
OpenAlex는 비영리 단체 OurResearch가 운영하는 오픈 학술 그래프입니다. 2022년 Microsoft Academic Graph가 종료되면서 그 역할을 이어받았어요. 모든 데이터는 CC0(퍼블릭 도메인), API는 무료, 다운로드는 매월 전체 덤프(~330GB) 제공.
Entity model — seven endpoints in one diagram
엔티티 모델 — 7가지 endpoint, 한 그림
| Endpoint | Endpoint | Prefix | Prefix | Key fields | 핵심 필드 |
|---|---|---|---|---|---|
| /works | W… | title, authorships, referenced_works, cited_by_count, concepts, topics | |||
| /authors | A… | display_name, orcid, works_count, last_known_institutions | |||
| /sources | S… | display_name, issn, type, host_organization | |||
| /institutions | I… | display_name, ror, country_code | |||
| /topics | T… | display_name, subfield, field, domain | |||
| /funders | F… | display_name, country_code, grants_count | |||
| /publishers | P… | display_name, hierarchy_level |
URL grammar — just five patterns
URL 문법 — 5패턴이면 끝
OpenAlex's API is plain REST URLs — paste one into a browser and it returns JSON. The whole grammar reduces to five patterns.
OpenAlex API는 단순 REST URL이라서 브라우저에 그냥 붙여넣어도 JSON이 떨어집니다. 패턴은 5개로 압축됩니다.
| Pattern | 패턴 | Example | Meaning | 의미 |
|---|---|---|---|---|
| ① Single record① 단건 | /works/W2741809807 | Fetch one paper by OpenAlex IDOpenAlex ID로 한 논문 가져오기 | ||
| ② DOI | /works/doi:10.1038/nature12373 | Direct DOI lookupDOI로 직접 lookup | ||
| ③ Search③ 검색 | /works?search=AI literacy K-12 | Full-text search (ranked)풀텍스트 검색 (랭킹된 결과) | ||
| ④ Filter④ 필터 | /works?filter=publication_year:2024,is_oa:true | Field-based precise filter필드 기반 정밀 필터 | ||
| ⑤ Group⑤ 그룹 | /works?group_by=publication_year | Aggregate without writing SQLSQL 없이 분포 파악 |
Most real calls are ③ + ④ combined.
대부분의 실전 호출은 ③+④ 조합입니다.
Anatomy of one URL — every piece labeled
URL 한 줄 해부 — 각 부분의 의미
Beginner-friendly tip: the URL is readable. Read it top to bottom — once you can read this, you can write any OpenAlex URL.
초보자용 팁: 이 URL은 위에서 아래로 읽히는 구조라서 직접 조립해도 무리 없어요. 이걸 읽을 수 있으면 어떤 OpenAlex URL이든 쓸 수 있습니다.
Free API key — 30 seconds, then you're in
무료 API 키 — 30초 가입으로 끝
OpenAlex retired the old "polite pool / mailto" model on February 13, 2026. From that date, every API call requires an api_key parameter. The key itself is still free — you just have to register an email at openalex.org/settings/api first. Earlier versions of this guide assumed the older model; this section is the current 2026-05 source of truth.
OpenAlex는 2026년 2월 13일부터 옛 "polite pool / mailto" 모델을 폐기했습니다. 그 이후로는 모든 API 호출에 api_key 파라미터가 필요합니다. 키 자체는 여전히 무료 — openalex.org/settings/api에서 이메일 등록만 하면 됩니다. 본 가이드 초기 버전은 옛 모델 가정으로 쓰였고, 이 섹션이 2026-05 기준 최신입니다.
30-second signup
30초 가입
- Go to openalex.org/settings/api and sign in with your email.
- Copy the API key (a single string).
- Save it to a shell variable so it stays out of your prompts and files:
setx OPENALEX_KEY "your-key"(Windows) orecho 'export OPENALEX_KEY="your-key"' >> ~/.bashrc(macOS / Linux).
- openalex.org/settings/api에 가서 이메일로 로그인.
- 발급된 API 키 (단일 문자열)를 복사.
- 프롬프트나 파일에 직접 박지 말고 환경변수로 저장:
setx OPENALEX_KEY "your-key"(Windows) 또는echo 'export OPENALEX_KEY="your-key"' >> ~/.bashrc(macOS · Linux).
How it goes into a request
요청에 어떻게 붙는가
Append &api_key=YOUR_OPENALEX_KEY to every URL. The helper script (Pattern B) reads the env var OPENALEX_KEY and injects it automatically — you never type the key into a prompt.
모든 URL 끝에 &api_key=YOUR_OPENALEX_KEY를 붙입니다. 헬퍼 스크립트(Pattern B)는 환경변수 OPENALEX_KEY를 읽어 자동 주입하므로 프롬프트에 키를 직접 적을 일이 없어요.
Credit-based rate limits (current model)
크레딧 기반 rate limit (현 모델)
| Setup셋업 | Daily budget일일 예산 | Practical effect실제 의미 |
|---|---|---|
| With free API key무료 키 사용 | $1 / day | Unlimited singleton lookups · ~10K list+filter calls · ~1K search calls / day단건 lookup 무제한 · list+filter ~1만 회 · search ~1천 회 / 일 |
| No key키 없음 | $0.01 / day | Effectively unusable for automation — only ad-hoc browser pokes.자동화에는 사실상 사용 불가 — 브라우저로 가끔 찔러보는 정도. |
| Hard limit (all tiers)하드 리밋 (모든 티어) | 100 req / sec | 429 Too Many Requests if exceeded; helper sleeps 0.1s between calls.초과 시 429 응답; 헬퍼가 호출 사이 0.1초 sleep 처리. |
For ordinary research use, the free tier is effectively unlimited. A typical literature scan or one journal-decade pull rarely passes 1,000 list calls, well below the daily $1 budget. See developers.openalex.org/api-reference/authentication for the live numbers.
일반 연구 용도에서는 무료 티어가 사실상 무제한입니다. 자료조사 한 번이나 한 저널의 10년 수집은 list call 1,000회를 거의 안 넘어요 — $1 일일 예산의 한참 아래. 최신 수치는 developers.openalex.org/api-reference/authentication 참조.
- Hard-coding the key in a prompt or committed file. Keys can be rotated — treat them like passwords. Use the env-var pattern above.
- Forgetting
api_keyentirely. The call still goes through but lands in the unkeyed $0.01/day pool, throttling you within a few requests. The symptom looks like silent slowness rather than an error. - Skipping the OpenAlex changelog. The 2026-02 transition was announced months ahead; future changes will be too. Subscribe at help.openalex.org changelog.
- 키를 프롬프트나 커밋된 파일에 박지 말 것. 키는 회전 가능 — 비밀번호 취급. 위 환경변수 패턴 사용.
api_key자체를 빠뜨림. 호출은 되지만 키 없는 $0.01/일 풀로 들어가 몇 번 만에 throttle. 에러가 아니라 조용한 느려짐으로 보입니다.- OpenAlex changelog 안 봄. 2026-02 전환은 몇 달 전에 공지됐고 이후 변경도 마찬가지입니다. help.openalex.org changelog 구독.
Three integration patterns — setup cost vs reuse value
3가지 연결 패턴 — 셋업 비용 vs 재사용 가치
There are essentially three ways to use OpenAlex from Claude Code. One-shot questions: A. Repeated use: B. Across many sessions and projects: C. Climb the ladder as the work justifies it.
OpenAlex를 Claude Code에서 쓰는 방법은 본질적으로 3가지입니다. 일회성 답변이면 A, 반복 사용이면 B, 여러 세션·여러 프로젝트면 C로 단계적으로 올라갑니다.
Start with B. A is for demos; promote to C only when the same pattern repeats in a second project. Building an MCP for a one-off tool is over-engineering.
B로 시작하세요. A는 진입 데모용이고 C는 같은 패턴이 두 번째 프로젝트에서 반복될 때 승격합니다. 한 번도 안 쓴 도구를 MCP로 만들면 오버엔지니어링.
A · Direct prompt
A · 직접 프롬프트
Setup time: zero. Just ask Claude Code in plain language. Claude assembles the URL, fetches with WebFetch / curl, parses the JSON, and answers.
셋업 0분. Claude Code에 그냥 자연어로 부탁하면 Claude가 WebFetch나 Bash + curl로 OpenAlex API를 직접 부르고 결과를 정리합니다.
Step-by-step — running your first prompt
첫 프롬프트 실행 — 단계별로
| Step단계 | What you do할 일 | What Claude doesClaude가 하는 일 |
|---|---|---|
| 1 | Open Claude Code (CLI in any terminal, or your IDE plugin).Claude Code 실행 (터미널의 CLI, 또는 IDE 플러그인). | Waits for your prompt.프롬프트 대기. |
| 2 | cd to any folder you don't mind Claude reading. (For Pattern A, no setup needed.)Claude가 읽어도 되는 폴더로 cd. (Pattern A는 별도 셋업 불필요.) |
Loads CLAUDE.md if it exists.있으면 CLAUDE.md 로드. |
| 3 | Paste the prompt below.아래 프롬프트 붙여넣기. | Calls the WebFetch tool with the OpenAlex URL it constructed (you'll see this in the tool-call panel).자기가 만든 OpenAlex URL을 WebFetch 도구로 호출 (도구 호출 패널에 보임). |
| 4 | Read the table that comes back.돌아온 표 확인. | Parses the JSON, extracts requested fields, formats as a markdown table.JSON 파싱해서 요청한 필드만 뽑아 마크다운 표로 정리. |
| 5 | Optional: ask a follow-up. ("Now show me their abstracts.")선택: 후속 질문. ("이제 abstract도 보여줘.") | Re-uses the same Work IDs, fetches abstracts, augments the table.같은 Work ID 재사용해 abstract 추가 호출 + 표 확장. |
Claude turns that into:
Claude는 위 프롬프트를 받으면 다음 URL을 만들어 호출합니다:
- Anything that needs paginated collection of 100+ records
- Searches you'll repeat (loses reproducibility)
- Pipelines whose next step has to re-read your result file
- 100건+ 페이지네이션이 필요한 대규모 수집
- 같은 검색을 반복할 가능성이 있는 작업 (재현성↓)
- 분석 다음 단계가 결과 파일을 다시 읽어야 하는 경우
B · Helper script — the sweet spot
B · 헬퍼 스크립트 — sweet spot
Drop a small Python helper into the project once; from then on, every Claude Code prompt invokes it via Bash. This is the recommended pattern.
프로젝트마다 작은 Python 헬퍼를 한 번만 깔아두고, Claude Code가 Bash로 호출하게 하는 방식. 가장 권장되는 패턴입니다.
This guide ships openalex_helper.py in the downloads folder. The core functions:
본 가이드는 다운로드에 openalex_helper.py를 동봉합니다. 핵심 함수만 보면:
After that, Claude Code prompts get short:
그 다음부터 Claude Code 프롬프트는 짧아집니다:
openalex_helper.py to paginate every paper in Journal of the Learning Sciences (issn 1050-8406) from 2015–2025 and save to data/jls_works.jsonl.
openalex_helper.py를 사용해서 Journal of the Learning Sciences (issn 1050-8406) 2015–2025 모든 논문을 paginate해서 data/jls_works.jsonl로 저장해줘.
① Functions written once are reused across every prompt → reproducibility ↑. ② Claude doesn't re-derive URL syntax each time → token savings. ③ Results land as JSONL files, ready to be reused by the analysis step. ④ Commit scripts/ to git so collaborators inherit the same environment.
① 한 번 짠 함수가 모든 프롬프트에서 재사용 → 재현성↑. ② Claude가 매번 URL 문법을 다시 추론하지 않음 → 토큰 절약. ③ 결과가 JSONL 파일로 떨어져 분석 단계에서 그대로 다시 사용. ④ scripts/ 폴더를 git에 커밋하면 협업자도 동일 환경.
C · MCP server — make it permanent
C · MCP 서버 — 영구 자산
Register OpenAlex as a first-class Claude Code tool, callable from every session and project without explicit imports.
OpenAlex를 Claude Code의 1급 도구로 등록하는 방식. 모든 세션·모든 프로젝트에서 별도 import 없이 호출 가능합니다.
There's no official OpenAlex MCP yet (as of 2026-05), but Anthropic's MCP TypeScript SDK lets you build one in roughly 30 minutes. The pattern is: write the tool spec at ~\.claude\mcp_servers\openalex\index.js and register it in ~\.claude\mcp.json.
아직 OpenAlex 공식 MCP는 없지만(2026-05 기준), Anthropic의 MCP TypeScript SDK로 30분이면 만들 수 있어요. 핵심은 ~\.claude\mcp_servers\openalex\index.js에 도구 명세를 적고, ~\.claude\mcp.json에 등록하는 것.
Only after OpenAlex use is demonstrated across multiple projects. An MCP for a single project is over-engineering, and forks become hard to manage as the tool evolves. Start with B; promote to C the second time the same pattern needs to spread to another project.
OpenAlex를 여러 프로젝트에서 자주 쓰는 게 확실해진 다음에. 한 프로젝트에만 쓰는 도구를 MCP로 만들면 오버엔지니어링이고, 도구가 진화할 때 프로젝트별 fork가 필요해집니다. 우선 B로 시작하고, "이 기능을 다른 프로젝트에도 깔아야겠다"가 두 번째 발생할 때 C로.
Idea → API sequence: the 5-step funnel
아이디어 → API 시퀀스 5단계 깔때기
The most important chapter in this guide. Knowing how to decompose an idea matters more than knowing the tool — that's where the time savings come from.
이 가이드의 가장 중요한 챕터입니다. 도구를 아는 것보다 "어떻게 분해할 것인가"를 아는 것이 시간을 아낍니다.
When a research idea arises, jumping straight to the first API call almost always returns the wrong data. Train yourself to decompose it through these five steps.
연구 아이디어가 떠올랐을 때 바로 첫 API 호출로 직진하면 거의 항상 잘못된 데이터를 받습니다. 다음 5단계로 분해하는 습관을 들이세요.
Three core mental tools
핵심 사고 도구 3가지
1. Map cardinality first
1. Cardinality 먼저 그리기
Sketch the structure on paper before the call: "1 author → N papers → M topics." Cardinality determines pagination, memory budget, and total call count.
"1 저자 → N 논문 → M 토픽" 같은 관계를 종이에 먼저 그립니다. 이게 페이지네이션·메모리 예산·총 호출 수를 결정해요.
- 1:1 (one author → one ORCID) → 1 API call
- 1:N, N<200 → 1 call (per_page=200)
- 1:N, N>200 → cursor pagination
- N:M graph → two stages: collect entities, then enrich relations
- 1:1 (한 저자 → 한 ORCID) → API 1회
- 1:N, N<200 → API 1회 (per_page=200)
- 1:N, N>200 → cursor 페이지네이션
- N:M 그래프 → 두 단계: entity 모집 후 관계 enrichment
2. Filter cascade — wide → narrow
2. Filter cascade — 넓→좁
Don't apply every filter at once. Step them in. That way you can verify each intermediate result is reasonably sized before adding the next constraint.
필터를 한 번에 다 거는 게 아니라 단계적으로 좁힙니다. 그래야 중간 결과가 합리적인 크기인지 확인할 수 있어요.
3. One prompt = one step
3. 한 프롬프트 = 한 단계
If you ask Claude to do all 5 steps in one prompt, mistakes from step 1 propagate to step 5 invisibly. Stepping them lets you eyeball the intermediate file (data/sources.json) for one second before moving on. That's the pattern that actually delivers automation ROI.
5단계를 한 번에 시키면 Claude가 1단계에서 잘못 추론한 source_id를 끝까지 끌고 갑니다. 단계별로 끊으면 사용자가 중간 산출물(data/sources.json)을 1초 검수하고 다음 프롬프트로 넘어갈 수 있어요. 이게 자동화 ROI를 만드는 진짜 패턴입니다.
Five common mistakes
자주 만드는 5가지 실수
- Too-broad first call: searching
"education"returns 500K+ rows. → Narrow by topic / source / year first. - Matching authors by name alone: name collisions are real. → Verify with ORCID.
- One WebFetch for 10K records: ignores pagination. → Use the helper's
paginate(). - Full citation-graph dump: 100 references each, then their 100 references… exponential. → Limit to seed + 1-hop.
- Throwing raw JSON at the LLM: wastes tokens. →
selectonly the fields you need before passing.
- 너무 넓은 첫 호출:
"education"검색 → 50만 건. → 토픽·저널·연도로 먼저 좁히기. - 이름으로 저자 매칭: 동명이인 위험. → ORCID로 검증.
- WebFetch 한 번으로 1만 건 시도: 페이지네이션 무시. → 헬퍼의
paginate()사용. - 인용 그래프 전수 다운로드: 한 논문 100 reference, 그게 또 100… 폭발. → 시드 + 1-hop으로 제한.
- LLM에 raw JSON 전체 던지기: 토큰 낭비. → 헬퍼에서 필요한 필드만 select 후 LLM에.
Discourse Lens v2 — building the cross-citation layer
Discourse Lens v2 — cross-citation layer 빌드
Discourse Lens (Educatian/discourse-lens, MVP 2026-04-29) is a research tool that BERTopic-clusters Learning Sciences ↔ Educational Technology journal abstracts from 2015–2025 and visualizes them with D3. v1 saw only abstract text.
Discourse Lens는 Learning Sciences ↔ Educational Technology 저널 abstract들을 2015–2025년에 걸쳐 BERTopic으로 클러스터링하고 D3로 시각화한 연구 도구입니다 (Educatian/discourse-lens, MVP 2026-04-29). v1은 abstract 텍스트만 봤어요.
v2's new question: "How much, and how, do these two fields cite each other? Has that relation shifted over time?"
v2의 새 질문: "LS와 ET 두 분야는 서로를 얼마나, 어떻게 인용하나? 시간이 지나며 그 관계가 변화했나?"
v1 in your browser — embedded
v1 라이브 임베드
Below is the live Discourse Lens v1 app. Use it to build intuition for what v2's citation layer would augment.
아래는 라이브 v1 앱입니다. v2가 어떤 citation layer를 추가하게 될지 직관을 잡는 용도로.
Plug v2's question into the §9 funnel:
이 질문을 § 9의 5단계 깔때기에 넣어보면:
| Stage | 단계 | v2 case | v2 케이스 |
|---|---|---|---|
| ① RQ | Time-resolved patterns of LS↔ET cross-citationLS↔ET cross-citation의 시간적 변화 패턴 | ||
| ② Data shape | {source × source × year × citation_count} | ||
| ③ API sequence | (a) /sources for ISSN → source_id(b) /works?filter=primary_location.source.id:S... per journal(c) referenced_works → cross-source citations① /sources로 ISSN → source_id② /works?filter=primary_location.source.id:S...로 저널별 모든 works③ 각 work의 referenced_works → cross-source 인용 추출 | ||
| ④ Analysis분석 | Cross-source matrix per time window, asymmetry test (LS→ET vs ET→LS)cross-source 인용 매트릭스 시계열, 비대칭성 검정 (LS→ET vs ET→LS) | ||
| ⑤ Viz시각화 | Sankey / chord plot per periodSankey / chord plot per period |
v2 build-along — 5 prompts
v2 build-along — 5개 프롬프트로
openalex_helper.py to look up each of these journals' OpenAlex source_id by ISSN and save to data/sources.json: Journal of the Learning Sciences (1050-8406), Cognition and Instruction (0737-0008), Computers & Education (0360-1315), British Journal of Educational Technology (0007-1013), Educational Technology Research and Development (1042-1629).
openalex_helper.py로 다음 저널의 OpenAlex source_id를 ISSN 기반 lookup해서 data/sources.json으로 저장:
Journal of the Learning Sciences (1050-8406), Cognition and Instruction (0737-0008), Computers & Education (0360-1315), British Journal of Educational Technology (0007-1013), Educational Technology Research and Development (1042-1629).
paginate(), extract id, doi, title, publication_year, primary_location.source.id, and referenced_works for each, and stream to data/works.jsonl. Print progress every 500 records.
paginate()해서
각 work의 id·doi·title·publication_year·primary_location.source.id·referenced_works만 추출해
data/works.jsonl로 저장. 매 500건 진행률 출력.
data/works.jsonl and for each work keep only referenced_works that fall within our 5 sources. Emit data/citation_edges.csv with columns: from_work_id, from_source, from_year, to_work_id, to_source, to_year.
data/works.jsonl을 스트리밍으로 읽어 each work의 referenced_works 중 우리 5개 source 안에 있는 것만 필터링해
data/citation_edges.csv 생성. 컬럼: from_work_id, from_source, from_year, to_work_id, to_source, to_year.
results/asymmetry.md.
results/asymmetry.md로.
ggplot2 + ggalluvial: 4-panel sankey-style chord, white academic background, EarlyTeacherEd story-figure style. Output: figures/v2_cross_citation.png.
data/citation_edges.csv로 ggplot2 + ggalluvial로 4개 시간 윈도우의 sankey-style chord 패널. 학술 백색 배경, EarlyTeacherEd 스토리피겨 스타일. 출력 figures/v2_cross_citation.png.
One prompt, one step. If you cram all 5 into one prompt, a wrong source_id from step 1 propagates through step 5. Stepping it gives you a one-second checkpoint on the intermediate file before moving on — that's where automation ROI actually lives.
한 프롬프트마다 한 단계만 처리합니다. 한 번에 5단계를 다 시키면 Claude가 첫 단계에서 잘못 추론한 source_id를 끝까지 끌고 갑니다. 단계별로 끊으면 사용자가 중간 산출물을 1초 검수하고 다음 프롬프트로 넘어갈 수 있어요.
A fuller walkthrough (expected outputs · failure cases · 4 extension ideas) is in the downloadable discourse_lens_v2_recipe.md.
더 자세한 워크스루 (예상 산출물 · 실패 케이스 · 확장 4가지)는 다운로드의 discourse_lens_v2_recipe.md를 보세요.
Prompt library
프롬프트 라이브러리
Copy-paste prompts — just swap topic / DOI / ORCID. Longer version (30+ prompts) in prompts.md.
복사해서 토픽·DOI·ORCID만 바꾸면 바로 쓰는 프롬프트 모음. 더 긴 버전은 prompts.md (30+ 프롬프트).
Author tracking
저자 추적
0000-0001-2345-6789 and plot a yearly publication count alongside cumulative citations.
0000-0001-2345-6789의 모든 OpenAlex works를 가져와 연도별 출판수와 누적 인용수 시계열을 그려줘.
Citation graph
인용 그래프
10.1080/10508406.2019.1573730, keep those published in 2024–2025. Sort by citation count, descending.
10.1080/10508406.2019.1573730를 인용한 논문 중 2024–2025 발표된 것을 가져와 인용수 내림차순 표.
Review automation
리뷰 자동화
wiki/sources/AI Literacy Watch.md.
wiki/sources/AI Literacy Watch.md에 append.
T14025 (educational technology), 2020–2025, with group_by=publication_year. Report yearly publication count, mean citations, and OA share.
T14025 (educational technology) 2020–2025 works를 group_by=publication_year로 집계해 연도별 출판량 + 평균 인용수 + OA 비율 추이.
Practical FAQ
실전 FAQ
Is OpenAlex better than Google Scholar?OpenAlex가 Google Scholar보다 좋은가요?
"Different" is the right answer. Google Scholar is wider — gray literature, blogs, lecture notes — but has no API (scrape and you'll get blocked) and metadata is non-standard. OpenAlex is narrower (peer-reviewed-leaning) but free, structured, and reproducible. For meta-analysis or systematic reviews where reproducibility matters, OpenAlex is the recommended primary source.
"다르다"가 정답입니다. Google Scholar는 회색문헌·블로그·강의노트까지 포함해 더 넓지만 API 없음 (스크레이핑 시 차단), 메타데이터 비표준. OpenAlex는 학술논문 위주이고 약간 좁지만 API 무료·구조화·재현가능. 메타분석·체계적 문헌고찰처럼 재현가능성이 중요한 작업은 OpenAlex가 권장입니다.
How is it different from Semantic Scholar (S2)?Semantic Scholar (S2)와는 어떻게 다른가요?
S2 is the Allen Institute's free academic API. Its strengths are paper embeddings (SPECTER) and citation contexts (the actual sentence quoting a reference). OpenAlex's strengths are metadata breadth and ROR/ORCID integration. In practice many workflows use both: OpenAlex for graph + metadata, S2 for embeddings + semantic similarity. Both key on Crossref DOIs.
S2는 AI/Allen Institute 무료 API. 강점은 paper embeddings (SPECTER)와 인용 컨텍스트 (인용 문장 추출). OpenAlex는 강점이 메타데이터의 폭과 ROR/ORCID 통합. 실전에서는 둘을 같이 쓰기도 합니다 — OpenAlex로 메타데이터 + 그래프, S2로 임베딩과 의미적 유사도. 둘 다 Crossref DOI를 키로 매칭됩니다.
Do I need an API key?API 키가 꼭 필요한가요?
Yes — since 2026-02-13. The old "no signup, just send mailto=…" model was retired on that date. Every call now needs api_key=YOUR_KEY. The key itself is still free — signup takes about 30 seconds at openalex.org/settings/api. Store it as an env var (OPENALEX_KEY) so it never lands in your prompts. Calls without a key still go through but get only $0.01/day of credit, which is below the threshold for any real automation. See § 4.
네 — 2026-02-13부터. 그 이전의 "가입 없이 mailto=…만" 모델은 폐기됐습니다. 모든 호출에 api_key=YOUR_KEY가 필요해요. 키는 여전히 무료 — openalex.org/settings/api에서 30초면 발급. 환경변수(OPENALEX_KEY)로 저장해서 프롬프트에 직접 안 들어가게. 키 없으면 호출은 되지만 $0.01/일이라 자동화 임계값 이하. 상세 § 4.
What if WebFetch is blocked or won't work?WebFetch가 차단되거나 작동 안 하면?
Fall back to Claude Code's Bash + curl. Example: curl "https://api.openalex.org/works?search=...&api_key=$OPENALEX_KEY" | jq. If jq is missing, python -m json.tool works fine.
Claude Code의 Bash + curl로 fallback. 예: curl "https://api.openalex.org/works?search=...&api_key=$OPENALEX_KEY" | jq. jq가 없으면 python -m json.tool도 됩니다.
Korean authors have a name-collision problem — help?한국 저자는 동명이인 위험이 큰데?
Critical concern. Don't match by name alone — ORCID first. When ORCID is missing, cross-verify with last_known_institutions + works_count + dominant topics. It's also common for one author to be split across multiple OpenAlex IDs (Moon, J / Moon, J.W / Moon, Jewoong); OpenAlex provides a user-flagged merge tool for that.
매우 중요. 이름만으로 매칭하지 말고 ORCID 우선. ORCID 없는 저자는 last_known_institutions + works_count + 대표 토픽으로 교차 검증. 한 저자가 여러 OpenAlex ID로 split된 케이스도 흔합니다 (Moon, J / Moon, J.W / Moon, Jewoong). OpenAlex는 사용자 신고로 병합하는 도구를 제공해요.
Citation counts disagree with Google Scholar / Web of Science인용수가 Google Scholar / Web of Science와 다른데요?
All three differ. OpenAlex's counts come from Crossref-tracked references, so conference proceedings, book chapters, and preprint citations may be undercounted. Treat OpenAlex counts as relative ("did this paper cite more than peers in the same journal?") rather than absolute. When you do report a number, cite it as "OpenAlex citation count, accessed YYYY-MM-DD."
셋 다 다릅니다. OpenAlex는 Crossref가 추적한 references 기반이라 conference proceedings, 책 챕터, preprint citations이 일부 누락될 수 있어요. 절대값보다 상대 비교에 적합합니다 ("같은 저널의 다른 논문보다 많이 인용됐나?"). 절대값을 보고서에 쓸 때는 "OpenAlex citation count, accessed YYYY-MM-DD"로 명시하세요.
What if I hit rate limits?Rate limit에 걸리면?
Rare with a free key for ordinary research. The 2026-02 model is credit-based: $1/day with a key (singletons unlimited; ~10K list+filter calls; ~1K search calls). The hard ceiling is 100 req/sec across all tiers. Exceed either and you get HTTP 429 with a Retry-After header — the helper sleeps and retries with exponential backoff. Monitor your daily budget at the /rate-limit endpoint or via response headers.
무료 키 사용 시 일반 연구에선 거의 안 걸립니다. 2026-02 모델은 크레딧 기반: 키 사용 $1/일 (단건 무제한 · list+filter ~1만 · search ~1천). 모든 티어 공통 하드 리밋 100 req/sec. 둘 중 하나 넘으면 HTTP 429 + Retry-After 헤더 — 헬퍼가 exponential backoff로 sleep 후 재시도. 일일 예산 모니터는 /rate-limit 엔드포인트나 응답 헤더로.
How do I store results in the vault?결과를 vault에 어떻게 저장하나요?
Two layers. Raw JSON/JSONL goes to project data/openalex/ or Desktop\_research\<date>_<topic>\ — not into the vault (privacy + size). Only the cleaned tables / summaries / insights move to wiki/sources/<Topic> - OpenAlex Snapshot YYYY-MM-DD.md. This honors the dual-architecture rule (vault for synthesis, external DB for raw).
두 단계. 원시 JSON/JSONL은 프로젝트 data/openalex/ 또는 Desktop\_research\<date>_<topic>\ (vault에 넣지 않음 — privacy·용량). 정제된 표·요약·인사이트만 wiki/sources/<Topic> - OpenAlex Snapshot YYYY-MM-DD.md로. 이중구조 룰에 부합 (vault = 종합, 외부 DB = 원본).
I need BibTeX exportBibTeX 변환이 필요해요
The pyalex package (pip install pyalex) exports BibTeX directly. Or add a to_bibtex(work) function to your helper. For Zotero, .ris tends to lose less metadata than BibTeX.
pyalex 패키지 (pip install pyalex)가 BibTeX 변환을 직접 지원합니다. 또는 헬퍼에 to_bibtex(work) 함수를 추가해 직접 포맷할 수도. Zotero에 import하려면 .ris 포맷이 손실 적습니다.
Could OpenAlex disappear someday?OpenAlex가 갑자기 사라질 위험은?
The non-profit OurResearch operates it, with stable funding from Sloan, Arcadia, and NIH. Combined with the user base inherited from MAG (2022 shutdown), CC0 licensing, and monthly full-corpus dumps, the short-term risk is low. Still, for important projects, keep a snapshot dump from the moment of analysis.
비영리 OurResearch가 운영하고 Sloan/Arcadia/NIH 펀딩이 안정적입니다. 2022년 MAG 종료 후 OpenAlex로 이동한 사용자 기반 + CC0 라이선스 + 매월 전체 dump 공개라는 구조 덕에 단기 위험은 낮아요. 그래도 중요 프로젝트는 분석 시점 dump를 한 번 보관해두세요.
Downloads — companion files
다운로드 — companion 자료
All bundled in the same folder; self-contained companion files.
모두 같은 폴더에 동봉된 self-contained 보조 자료입니다.
search_works · paginate · cited_by · references_of · get_author. Reads OPENALEX_KEY env var and injects api_key on every call.search_works · paginate · cited_by · references_of · get_author 포함. OPENALEX_KEY 환경변수 읽어 api_key 자동 주입.References & credits
Foundational sources
- Priem, J., Piwowar, H., & Orr, R. (2022). OpenAlex: A fully-open index of scholarly works, authors, venues, institutions, and concepts. arXiv:2205.01833.
- OpenAlex API documentation — developers.openalex.org
- OpenAlex API root — api.openalex.org
Related tooling
- pyalex — Python client. github.com/J535D165/pyalex
- Semantic Scholar API — api.semanticscholar.org
- Crossref REST API — api.crossref.org
- Anthropic MCP TypeScript SDK — github.com/modelcontextprotocol/typescript-sdk
Case study
- Discourse Lens repository — Educatian/discourse-lens (2026-04-29 MVP). Live demo: educatian.github.io/discourse-lens
This guide does not replace OpenAlex's official documentation. It is a practical onboarding guide layered on the foundational sources above. When in doubt, defer to developers.openalex.org's latest spec. The Discourse Lens case study uses synthetic results purely as illustration, not as a real analysis report.
이 가이드는 OpenAlex의 official documentation을 대체하지 않습니다. 본 문서는 practical onboarding guide이고, foundational sources는 위 references입니다. API 동작이 의심스러우면 항상 developers.openalex.org의 최신 명세를 우선하세요. Discourse Lens 케이스 스터디의 합성 결과는 예시일 뿐 실제 분석 보고가 아닙니다.