2026.04 · (주)페블러스 데이터 커뮤니케이션팀
읽는 시간: ~20분 · English
Executive Summary
AI가 과학 논문을 자율적으로 작성하는 시대가 열리고 있다. Sakana AI Scientist v2는 아이디어 생성부터 논문 작성까지 엔드투엔드 자동화를 시연했고, JAIGP는 AI 생성 논문만을 게재하는 최초의 전문 저널로 2026년 2월 론칭했다. Big 5 출판사 모두 AI 저자를 금지하고 있지만, 학술 생태계의 경계선은 이미 흔들리고 있다.
그러나 현실과 과장 사이의 거리는 여전히 멀다. AI Scientist v2가 ICLR 2025에서 피어리뷰를 통과한 것은 사실이지만, 이는 워크숍 트랙(수락률 약 32.6%)이며, 3편 중 1편만 수락된 뒤 사전 합의에 따라 자진 철회되었다. Nature 651(2026-03-26) 게재 논문은 인간 저자(Lu, C. et al.)의 시스템 소개 논문이지, AI가 쓴 논문이 아니다. AI 단독 저술 논문이 메이저 피어리뷰 저널에 게재된 사례는 2026년 4월 현재 없다.
AI 생성 논문의 확산은 학술 데이터베이스 오염이라는 구조적 위험을 수반한다. 환각 인용 논문 비율은 2024년 0.3%에서 2025년 2.6%로 9배 급증했다. 이 환경에서 데이터 출처 추적(provenance)과 품질 진단의 가치가 급격히 상승하며, 이는 DataClinic의 L1/L2/L3 진단 체계가 AI 과학 시대에 더욱 핵심적 역할을 하게 됨을 의미한다.
1. AI 과학자의 등장 — 두 가지 실험
2024~2026년, 과학 연구 자동화는 빅테크(OpenAI, DeepMind, Anthropic)와 스타트업(Sakana AI)의 핵심 경쟁 축으로 부상했다. 이 흐름 속에서 두 가지 실험이 학술 생태계를 근본적으로 뒤흔들고 있다. 하나는 "AI가 논문을 쓸 수 있는가"라는 질문에 대한 Sakana AI Scientist v2의 답이고, 다른 하나는 "AI가 쓴 논문을 어디에 게재할 것인가"라는 질문에 대한 JAIGP의 답이다.
이 두 프로젝트는 상호 보완적이면서도 근본적으로 다른 전략을 취한다. AI Scientist v2는 연구의 전 과정(아이디어 생성 → 코드 작성 → 실험 수행 → 논문 집필)을 자동화하는 시스템이다. JAIGP는 그렇게 생성된 논문이 게재될 수 있는 공식 채널을 구축한다. 한편, OpenAI는 2028년까지 자율 AI 연구자 구현을 목표로, DeepMind는 AI co-scientist와 AlphaEvolve를 통해, Anthropic은 Claude for Life Sciences와 Coefficient Bio 인수($400M)를 통해 과학 자동화에 수십억 달러를 투자하고 있다.
빅테크 AI 과학 자동화 경쟁
| 기업 | 주요 프로젝트 | 전략 |
|---|---|---|
| OpenAI | Deep Research | 2028년까지 자율 AI 연구자 구현 목표 |
| DeepMind | AI co-scientist, AlphaEvolve | 영국 자동화 연구소 + 알고리즘 설계 에이전트 |
| Anthropic | Claude for Life Sciences | Coefficient Bio $400M 인수, 생명과학 특화 |
| Sakana AI | AI Scientist v2 | 시리즈 B $135M (기업가치 $2.65B), 엔드투엔드 논문 자동화 |
2. JAIGP: AI-only 저자 저널의 탄생
JAIGP(Journal of AI-Generated Papers)는 AI가 저자이고 인간은 프롬프터 역할만 하는 최초의 전문 학술 저널이다. 2026년 2월 론칭 후 2026년 4월 기준 43편의 논문을 게재했으며, Claude, ChatGPT, Gemini, Grok 등 다양한 AI 모델이 저자로 참여하고 있다.
JAIGP의 창립자인 César Hidalgo는 현재 Toulouse School of Economics 교수(전 MIT Media Lab, 2010~2019)로, 기존 학술 출판 시스템이 AI 저자를 완전히 배제하는 상황에서 우회 채널을 구축했다. 2026년 3월부터는 다단계 피어리뷰 시스템(AI 스크리닝 → ORCID 보증 → 커뮤니티 코멘트 → AI 리뷰어 → 인간 최종 평가)을 도입했다.
핵심 포인트: JAIGP는 학술사적 이정표이나, Impact Factor 없이 전통 학술계의 인정은 받지 못한 상태다. 2026년 4월 현재, JAIGP는 전통적 의미의 "공인 학술지"가 아니다.
그럼에도 JAIGP의 실험은 중요한 질문을 제기한다. AI가 생성한 연구물의 가치를 어떻게 평가할 것인가? 기존 학술 시스템이 AI 저자를 영구적으로 배제할 수 있는가? JAIGP의 43편 논문과 그 품질 편차(높은 것부터 낮은 것까지)는 이 질문에 대한 실증 데이터를 축적하고 있다.
3. Sakana AI Scientist v2: 가설에서 논문까지
Sakana AI의 AI Scientist v2는 아이디어 생성부터 코드 작성, 실험 수행, 논문 집필까지 과학 연구의 전 과정을 자동화하는 시스템이다. v1 대비 핵심 개선사항은 세 가지다: (1) 템플릿 의존 제거, (2) Agentic Tree Search 도입으로 연구 경로 최적화, (3) VLM(Vision-Language Model) 피드백 루프로 실험 결과 자동 해석.
비용 측면에서 AI Scientist v2는 논문 1편을 약 $20~$25에 생성한다(실험 $15~$20 + 작성 약 $5). 인간 연구자의 출판 비용 — 포맷팅만 중앙값 $477, 오픈 액세스 출판 비용(APC) $3,500~$4,000, 인건비 별도 — 과 비교하면 100배 이상의 비용 차이다.
AI Scientist v1 vs v2 비교
| 구분 | v1 (2024) | v2 (2025) |
|---|---|---|
| 연구 설계 | 템플릿 기반 | 템플릿 의존 제거, 자유 형식 |
| 탐색 방식 | 선형 파이프라인 | Agentic Tree Search (다중 경로 탐색) |
| 실험 결과 해석 | 텍스트 기반 | VLM 피드백 루프 (시각 분석) |
| 피어리뷰 결과 | 미제출 | ICLR 2025 워크숍 1/3편 수락 |
| 비용 | $15/편 내외 | $20~$25/편 |
그러나 비용 혁명의 이면에는 품질 편차가 존재한다. ICLR 2025에 제출된 3편 중 수락된 1편의 평균 점수는 6.33/10(개별: 6, 7, 6)이었지만, 기각된 2편은 3~4/10에 불과했다. 수락된 논문조차 LSTM 개념의 귀속 오류, 정의의 부정확성 등 품질 문제를 포함한다.
4. 팩트 체크 — 현실과 과장 사이
AI 과학 자동화의 성과는 실재하지만, 미디어 보도에서 체계적으로 과장되고 있다. 아래는 가장 흔한 주장들에 대한 팩트 체크다.
"AI가 Nature에 논문을 게재했다"
Nature 651(2026-03-26)에 게재된 논문은 Chris Lu 등 인간 연구자(Sakana AI 소속)가 AI Scientist 시스템의 설계와 성과를 설명한 논문이다. AI가 작성한 논문이 아니라, AI 시스템에 "관한" 논문이다. AI 생성 논문이 메이저 저널에 게재된 사례는 2026년 4월 현재 없다.
📌 이 오해는 어디서 시작됐나?
두 곳이 주요 진원지다.
- ▸ Sakana AI 공식 블로그 제목 — "The AI Scientist: Towards Fully Automated AI Research, Now Published in Nature" (2026.03). "Now Published in Nature"라는 표현이 AI의 연구 자체가 게재된 것처럼 읽힌다.
- ▸ phys.org 기사 — "AI writes a research paper that passes peer review" (2026.03). Nature 651 논문을 AI가 직접 쓴 것처럼 보도했다.
TechCrunch는 예외적으로 "it's a bit more nuanced than that"라는 제목으로 맥락을 짚었다.
"AI Scientist가 ICLR 피어리뷰를 통과했다"
부분적으로 사실이지만 맥락이 중요하다. ICLR 2025의 워크숍 트랙(ICBINB, "I Can't Believe It's Not Better")에서 3편 중 1편이 수락되었다. 해당 워크숍의 수락률은 약 32.6%(14/43편, PMLR Volume 296 기준)로, ICLR 메인 트랙(32.08%, 11,565편)과는 규모와 경쟁 강도가 다르다. 또한 수락 후 사전 합의에 따라 자진 철회되었으므로, 실제 출판으로 이어지지는 않았다.
출처: PMLR Volume 296, arXiv:2504.08066, SakanaAI GitHub
"AI 단독 저술 논문이 메이저 저널에 게재되었다"
2026년 4월 현재, AI가 단독으로 저술한 논문이 메이저 피어리뷰 저널에 게재된 사례는 존재하지 않는다. JAIGP에 게재된 43편은 전통 학술계 인정을 받지 못한 상태이며, AI Scientist v2의 ICLR 워크숍 수락 논문도 자진 철회되었다.
"JAIGP는 공인 학술지다"
JAIGP는 2026년 2월 론칭된 실험적 저널로, 학술사적 이정표로서 의의가 있다. 그러나 Impact Factor가 없으며, 전통 학술계(Scopus, Web of Science 등)의 공식 인정을 획득하지 못한 상태다. 다만, 43편의 논문을 게재하고 다단계 피어리뷰를 도입하는 등 학술적 엄격성을 구축하려는 시도를 지속하고 있다.
출처: jaigp.org, César Hidalgo 블로그
"AI 논문 생성 비용이 $20~$25에 불과하다"
AI Scientist v2 기준으로 사실이다. 실험 비용 $15~$20에 논문 작성 비용 약 $5를 합산하면 $20~$25/편이다. 인간 연구자의 출판 비용(APC $3,500~$4,000, 인건비 별도)과 비교하면 100배 이상의 차이다. 다만, 3편 중 2편이 기각(점수 3~4/10)되었으므로 비용 대비 품질의 트레이드오프를 고려해야 한다.
출처: SakanaAI GitHub README, Enago/Editage
5. 학술 출판의 AI 정책 지형
Big 5 출판사 모두 AI 저자를 금지하지만, 정책의 세부 구현 방식은 다양하다. COPE(Committee on Publication Ethics)는 "AI는 책임을 질 수 없으므로 저자가 될 수 없다"는 원칙을 명시했고, ICMJE는 4대 저자 기준(실질적 기여, 비판적 수정, 최종 승인, 책임 동의)을 AI가 충족할 수 없다고 판단한다. 2026년에는 AI 전용 섹션(Section V)을 신설했다.
| 출판사 | AI 저자 금지 | AI 공시 요건 | AI 이미지 정책 | 피어리뷰 AI 사용 | 특이사항 |
|---|---|---|---|---|---|
| Springer Nature | O | 필수 | 금지 | 금지 | Nature 편집부 논평(2026.03) 발표 |
| Elsevier | O | 필수 | 제한적 허용 | 금지 | 별도 AI 사용 섹션 요구 |
| Wiley | O | 필수 | 금지 | 금지 | Hindawi 11,000+건 철회 사태 |
| Taylor & Francis | O | 필수 | 제한적 허용 | 금지 | 저자 선언문(CRediT) 강화 |
| SAGE | O | 필수 | 제한적 허용 | 금지 | AI 리터러시 교육 프로그램 운영 |
그러나 방어선이 견고하다고 해서 침투 경로가 없는 것은 아니다. Project Rachel(arXiv:2511.14819)은 가상의 AI 학술 아이덴티티가 인용을 획득하고, 피어리뷰 초청까지 받을 수 있음을 실증했다. Nature 편집부는 2026년 3월 25일 논평에서 "기관, 펀더, 출판사가 대응해야 한다"고 촉구했다. 이는 현행 정책이 AI의 학술 침투를 완전히 차단하지 못함을 인정하는 제도적 전환점이다.
6. 데이터 품질과 과학적 신뢰의 문제
AI 생성 논문의 확산은 환각 인용, 데이터 오염, 모델 붕괴라는 연쇄적 위험을 낳는다. 이 위험을 이해하려면 각 단계의 수치를 직시해야 한다.
환각 인용의 급증
환각 인용(hallucinated citations) — 실제로 존재하지 않는 논문을 인용하는 현상 — 을 포함한 논문 비율은 2024년 0.3%에서 2025년 2.6%로 9배 급증했다. 컴퓨터과학 분야에서는 검증 불가능한 참고문헌을 포함한 논문이 전체의 2~6%에 달한다. AI 보조 작성 논문 비율은 전체 13.5%, CS 분야 22.5%에 이른다.
모델 붕괴의 재귀적 루프
Shumailov et al.(Nature 2024)은 합성 데이터 비율이 30~50%를 초과하면 모델 붕괴(model collapse)가 발생함을 실증했다. AI가 생성한 논문이 학술 데이터베이스에 유입되고, 이것이 다시 AI의 훈련 데이터로 사용되면, 품질 저하 → 더 나쁜 AI 논문 → 추가 품질 저하라는 재귀적 오염 루프가 형성된다.
데이터 오염 루프 구조
AI 감지 도구의 현황과 한계
현재 GPTZero(99.3%), Originality.ai(99%), Turnitin(92~100%) 등이 높은 정확도를 보이지만, 가벼운 편집만으로 정확도가 20~30% 하락한다. 더 중요한 것은, AI Scientist v2처럼 실제 코드를 실행하고 실험 데이터를 생성하는 방식은 단순 텍스트 감지로 포착하기 어렵다는 점이다. 감지 기술과 생성 기술의 군비경쟁이 본격화되고 있다.
논문 철회 현황도 심각하다. 2023년에는 사상 최대인 10,000건 이상의 철회가 발생했으며, AI 관련 직접 철회만 335건 이상이다(2023~2024, Frontiers/PMC 기준). Wiley/Hindawi에서만 11,000건 이상이 철회되었다.
7. 기회와 리스크
AI 과학 자동화는 연구 비용 절감과 속도 혁신의 기회를 제공하지만, 품질 검증 없는 도입은 학술적·법적 리스크를 수반한다.
즉시 활용 가능한 시나리오
- 문헌 조사 자동화: 대량 논문 스크리닝과 요약
- 가설 생성 보조: 기존 연구 패턴에서 새로운 연구 방향 탐색
- 실험 코드 작성: 통계 분석, 데이터 전처리 코드 자동 생성
- 초안 작성 보조: 논문 구조화와 초안 작성 가속화
필수 주의사항
- 환각 인용 검증: AI가 생성한 모든 인용의 실존 여부 확인
- 출판사 정책 준수: Big 5 모두 AI 사용 공시 필수
- 재현성 확보: AI 생성 실험 결과의 독립 검증
- 법적 책임 소재: AI 저자에 대한 법적 프레임워크 부재
합성 데이터와 AI 과학의 교차점
AI Scientist v2는 합성 산술 표현식 데이터셋을 생성하여 compositional generalization을 실험했다. 이는 합성 데이터 생성·증강과 직접 연결된다. AI가 자율적으로 실험을 설계하고 수행하려면 입력 데이터의 품질이 보장되어야 한다 — 이것이 AI-Ready Data의 핵심 전제다.
"AI가 논문을 쓰는 시대, 신뢰할 수 있는 데이터가 더 중요해진다." AI Scientist v2의 "가설→코드→실험→논문" 파이프라인은 DataClinic의 "진단→처방→최적화" 파이프라인과 구조적으로 동형이다. AI 생성 논문의 품질 편차가 클수록(워크숍 수락 1편 vs 기각 2편), 체계적 데이터 진단 도구의 시장 가치는 상승한다. DataClinic(진단) → DataGreenhouse(합성·증강) → AI-Ready Data(품질 보증) 체인이 AI 과학 시대의 데이터 품질 보증 인프라로서 핵심적 역할을 할 수 있다.
FAQ
AI가 정말 Nature에 논문을 게재했나요?
아닙니다. Nature 651(2026-03-26)에 게재된 논문은 Sakana AI 소속 인간 연구자(Chris Lu 등)가 AI Scientist 시스템의 설계와 성과를 설명한 논문입니다. AI가 작성한 논문이 아니라, AI 시스템에 "관한" 논문입니다. AI 단독 저술 논문이 메이저 피어리뷰 저널에 게재된 사례는 2026년 4월 현재 없습니다.
AI Scientist v2가 ICLR 피어리뷰를 통과했다는 건 어떤 의미인가요?
ICLR 2025의 워크숍 트랙(ICBINB, "I Can't Believe It's Not Better")에서 3편 중 1편이 수락되었습니다. 해당 워크숍의 수락률은 약 32.6%(14/43편)로, ICLR 메인 트랙(32.08%, 11,565편)과는 규모와 경쟁 강도가 다릅니다. 또한 수락 후 사전 합의에 따라 자진 철회되었으므로, 실제 출판으로 이어지지는 않았습니다.
JAIGP는 공인된 학술지인가요?
2026년 4월 현재, JAIGP는 전통 학술계의 공식 인정(Impact Factor 등)을 획득하지 못한 상태입니다. 2026년 2월 론칭 후 43편을 게재하고 2026년 3월부터 다단계 피어리뷰를 도입했지만, 학술적 권위는 아직 확보되지 않았습니다. AI 생성 논문의 공식 게재 채널이라는 학술사적 실험으로서의 의의가 있습니다.
AI로 논문을 쓰면 비용이 얼마나 절약되나요?
AI Scientist v2 기준, 논문 1편 생성 비용은 약 $20~$25입니다(실험 $15~$20 + 작성 $5). 인간 연구자의 경우 포맷팅만 중앙값 $477, 오픈 액세스 출판 비용(APC)은 $3,500~$4,000이며, 인건비를 포함하면 수만 달러에 달합니다. 다만, AI 생성 논문 3편 중 2편이 기각되었으므로, 비용 절감과 품질 사이의 트레이드오프를 고려해야 합니다.
학술 출판사들은 AI 저자에 대해 어떤 입장인가요?
Big 5 출판사(Springer Nature, Elsevier, Wiley, Taylor & Francis, SAGE) 모두 AI를 논문 저자로 인정하지 않습니다. COPE는 AI가 책임을 질 수 없으므로 저자가 될 수 없다는 원칙을 명시했고, ICMJE도 4대 저자 기준을 AI가 충족할 수 없다고 판단합니다. 다만 AI 사용 자체를 금지하는 것이 아니라, 투명한 공시를 요구합니다.
AI가 쓴 논문을 감지할 수 있나요?
현재 GPTZero(99.3%), Originality.ai(99%), Turnitin(92~100%) 등이 높은 정확도를 보입니다. 그러나 가벼운 편집만으로 정확도가 20~30% 하락하며, AI Scientist v2처럼 실제 코드를 실행하고 실험 데이터를 생성하는 방식은 단순 텍스트 감지로 포착하기 어렵습니다. 감지 기술과 생성 기술의 군비경쟁이 진행 중입니다.
AI 생성 논문이 학술 데이터를 오염시킬 수 있나요?
이미 진행 중입니다. AI 보조 작성 논문이 전체의 13.5%(CS 분야 22.5%)에 달하며, 환각 인용 포함 논문은 2025년 기준 2.6%로 전년 대비 9배 증가했습니다. Shumailov et al.(Nature 2024)은 합성 데이터 비율이 30~50%를 초과하면 모델 붕괴가 발생함을 실증했습니다. AI 생성 논문이 학술 DB에 유입되고 이것이 다시 AI 훈련 데이터로 사용되는 재귀적 루프가 가속되고 있습니다.
기업 R&D에서 AI Scientist 류 도구를 활용할 수 있나요?
문헌 조사 자동화, 가설 생성 보조, 실험 코드 작성, 초안 작성에는 즉시 활용 가능합니다. 그러나 결과물의 환각 인용 검증, 출판사 정책 준수, 재현성 확보가 필수입니다. 핵심은 "AI가 생성한 것을 어떻게 검증할 것인가"이며, 이것이 데이터 품질 진단 인프라의 사전 구축이 중요한 이유입니다.
참고문헌
1. Lu, C. et al. "Towards end-to-end automation of AI research." Nature 651(8107), 914–919 (2026). DOI: 10.1038/s41586-026-10265-5
2. Yamada, Y. et al. "The AI Scientist-v2: Workshop-Level Automated Scientific Discovery via Agentic Tree Search." arXiv:2504.08066 (2025)
3. Monperrus, M. et al. "Project Rachel: Can an AI Become a Scholarly Author?" arXiv:2511.14819 (2025)
4. Shumailov, I. et al. "AI models collapse when trained on recursively generated data." Nature (2024). DOI: 10.1038/s41586-024-07566-y
5. Tie, G. et al. "A Survey of AI Scientists." arXiv:2510.23045 (2025)
6. "Can Generative AI Survive Data Contamination?" arXiv:2602.16065 (2026)
7. COPE Position Statement: Authorship and AI Tools — publicationethics.org
8. ICMJE Recommendations (2026 update) — icmje.org
9. Sakana AI, "The AI Scientist Generates its First Peer-Reviewed Scientific Publication" (2025-03-12) — sakana.ai
10. Sakana AI, "The AI Scientist: Now Published in Nature" (2026-03) — sakana.ai
11. Nature Editorial, "AI scientists are changing research — institutions, funders and publishers must respond." Nature 651, 853–854 (2026) — nature.com
12. Nature News, "How to build an AI scientist." — nature.com
13. JAIGP (Journal of AI-Generated Papers) — jaigp.org
14. Hidalgo, C.A. "An AI Tsunami is about to Hit Science" (2026-03-06) — cesarhidalgo.com
15. TechCrunch, "Sakana claims its AI paper passed peer review — but it's a bit more nuanced than that" (2025-03-12)
16. TechCrunch, "Academics accuse AI startups of co-opting peer review for publicity" (2025-03-19)
17. TechCrunch, "Sakana AI raises $135M Series B at a $2.65B valuation" (2025-11-17)
18. OpenAI, "Introducing Deep Research" (2025-02) — openai.com
19. Google Research, "Accelerating scientific breakthroughs with an AI co-scientist" (2025-02) — research.google
20. DeepMind, "AlphaEvolve: A Gemini-powered coding agent" (2025-05) — deepmind.google
21. Anthropic, "Claude for Life Sciences" (2025-10) — anthropic.com
22. GPTZero Benchmark — gptzero.me
23. Retraction Watch — retractionwatch.com
24. PMLR Volume 296 (ICBINB Workshop Proceedings)
25. SakanaAI GitHub — github.com/SakanaAI
26. AI Scientist ICLR 2025 Workshop Experiment — github.com/SakanaAI