Executive Summary

데이터는 AI 경제의 핵심 자산이지만, 거래 시장은 구조적 마비 상태다. 글로벌 데이터 브로커 시장은 $319B 규모인 반면, 순수 데이터 마켓플레이스 플랫폼 시장은 $1.8B에 불과하며, 10년간 유니콘은 단 하나도 탄생하지 않았다. 핵심 병목은 "정보 비대칭"이다. 구매자가 데이터 품질을 사전에 검증할 수 없는 레몬 마켓 문제가 시장 형성 자체를 가로막고 있다.

이 문제를 해결하는 세 가지 기술 축이 동시에 성숙하고 있다. Data Shapley(2019)에서 시작된 데이터 가치 평가 연구가 LLM 전용 효율적 근사(2025)까지 발전했고, 블록체인이 데이터 출처와 품질의 불변 기록 체계(DataBOM)로 재정의되고 있으며, Coinbase x402와 Skyfire KYAPay 등 에이전트 결제 인프라가 마이크로페이먼트를 현실화하고 있다.

페블러스 특허(10-2912944)는 이 세 축의 교차점에 위치한다. 가상환경 시뮬레이션으로 데이터 품질을 진단하고, 결손 구간을 합성데이터로 보완하며, 그 결과를 블록체인에 기록하는 "진단-보완-증명" 파이프라인이다. EU AI Act Article 10이 2026년 8월 시행되면 데이터 품질 증명은 법적 의무가 되며, 에이전트 경제에서 기계가 판독 가능한 데이터 신뢰 인프라가 된다.

170x

데이터 브로커($319B) vs 마켓플레이스($1.8B) 시장 격차

0개

10년간 순수 데이터 마켓플레이스 유니콘

$3.1T

저품질 데이터로 인한 미국 경제 연간 손실 (IBM)

2026.08.02

EU AI Act 데이터 품질 의무 시행일

1. 데이터에 가격이 없다 — 170배 격차와 레몬 마켓

데이터 경제의 역설은 숫자로 드러난다. Grand View Research에 따르면 글로벌 데이터 브로커 시장은 $319.2B(CAGR 9.3%)에 달한다. 그런데 MarketsandMarkets가 추산한 순수 데이터 마켓플레이스 플랫폼 시장은 $1.8B에 불과하다. 170배 격차다. 브로커를 통한 불투명한 중개 거래는 활발하지만, 플랫폼 위에서 투명하게 거래되는 시장은 제대로 형성되지 못한 것이다.

CB Insights 분석에 따르면 지난 10년간 순수 데이터 마켓플레이스에서 유니콘이 된 기업은 0개다. McKinsey는 데이터 마켓플레이스 스타트업의 실패율을 약 70%로 추산한다. Gartner는 데이터 마켓플레이스를 "Trough of Disillusionment(환멸의 골짜기)"에 배치했다. 투자자, 기업, 분석가 모두 같은 결론에 도달하고 있다.

레몬 마켓: 구매 전에 품질을 알 수 없다

원인은 명확하다. 경제학에서 말하는 레몬 마켓(lemon market) 문제다. 중고차 시장에서 구매자가 차량의 상태를 사전에 알 수 없듯이, 데이터 구매자는 구매 전에 데이터의 품질을 검증할 방법이 없다. World Economic Forum 조사에서 데이터 공급자 85%는 "구매자가 부족하다"고, 데이터 구매자 72%는 "품질을 신뢰할 수 없다"고 보고했다(Zhang et al., 2024). 공급자는 팔고 싶고, 구매자는 사고 싶지만, 양쪽을 연결해주는 신뢰 메커니즘이 없는 것이다.

품질 문제의 경제적 규모

신뢰 부재의 대가는 막대하다. IBM에 따르면 저품질 데이터로 인한 미국 경제의 연간 손실은 $3.1T에 이른다(기회비용 포함). Gartner 조사에서는 AI 프로젝트의 80%가 데이터 품질 이슈로 실패한다. Anaconda 보고서에 의하면 데이터 과학자의 45%가 업무 시간을 데이터 정제에 소비한다. 이 수치들은 모두 같은 방향을 가리킨다. 데이터에 신뢰할 수 있는 가격표를 붙이는 기술이 없으면, 데이터 경제는 잠재력의 극히 일부만 실현한다.

핵심 시사점: 데이터 거래 시장의 난관은 "데이터가 부족해서"가 아니다. 구매자에게 "이 데이터가 정말 쓸 만한가?"를 증명할 방법이 없기 때문이다. 170배 격차를 좁히려면 더 많은 데이터가 아니라, 데이터에 신뢰를 부여하는 기술이 필요하다.

2. 특허 해부 — 가상환경 시뮬레이션 + 합성데이터 + 블록체인

페블러스 특허(한국 10-2912944 / 미국 US 12,481,720 B2)는 데이터 가치 증명의 세 가지 기술 축을 하나의 파이프라인으로 결합한다. 각 축의 학술적 기반과 기술적 메커니즘을 해부한다.

2.1 데이터에 가격을 매기는 학문: Data Shapley

"데이터에 가격을 매긴다"는 발상의 학술적 기원은 Ghorbani와 Zou의 Data Shapley(2019, ICML)다. 협력 게임 이론의 Shapley value를 ML 데이터 가치 평가에 적용하여, 각 데이터 포인트가 모델 성능에 기여하는 몫을 공정하게 배분한다. 이후 5년간 SVBench(VLDB 2025), OpenDataVal(NeurIPS 2023), pyDVL 등 벤치마크와 라이브러리 생태계가 형성되었고, 2025년에는 LLM DPO 학습에서의 효율적 Shapley 근사, 비대칭 Shapley로의 확장이 이루어졌다.

그러나 학술 연구의 대부분은 "ML 모델 성능 기여도" 측정에 집중한다. 실제 시장에서 데이터 가격을 결정하려면 공급-수요 역학, 번들링 전략, 외부효과(externality)까지 반영해야 하는데, 이 간극은 여전하다. 페블러스의 접근은 학술적 가치 평가를 시장 거래 가능한 품질 인증으로 전환하는 데 있다.

2.2 가상환경 시뮬레이션: 데이터 품질의 디지털 트윈

특허의 첫 번째 단계는 가상환경 시뮬레이션이다. 데이터를 실제 모델 학습에 투입하기 전에, 가상환경에서 성능 영향을 예측한다. 기존 데이터 품질 평가가 프로파일링이나 통계 검증 같은 "정적 검사"라면, 이 접근법은 "동적 스트레스 테스트"에 해당한다.

학술적으로 이 방법론은 로봇공학의 Sim-to-Real 패러다임과 구조적 유사성을 갖는다. 가상환경에서 시뮬레이션한 결과가 실제 환경에서의 성능을 정확히 예측하려면 "현실 격차(reality gap)"를 최소화해야 한다. 데이터 품질 맥락에서는 시뮬레이션이 "이 데이터를 학습에 쓰면 성능이 얼마나 향상되는가"를 신뢰할 수 있게 예측하는 것이 관건이다. Sajith와 Kathala(2024)는 학습 데이터의 100% 중복이 정확도를 40% 급락시킨다는 것을 실험으로 보였고, Zhou 등(2025)은 6개 품질 차원이 19개 ML 알고리즘에 미치는 체계적 영향을 실증했다.

2.3 합성데이터 보완: 생성만으로는 부족하다

두 번째 단계는 합성데이터를 통한 결손 구간 보완이다. 시뮬레이션에서 발견된 데이터의 약점, 즉 특정 조건이나 시나리오가 부족한 구간을 합성데이터로 채운다. 2024년 서베이에 따르면 합성데이터는 품질(Quality), 다양성(Diversity), 복잡성(Complexity) 3축으로 평가해야 하며, 테이블형 데이터에는 유틸리티, 정합성, 충실도, 프라이버시의 4대 요구사항이 적용된다(2025 서베이).

Gartner는 2030년까지 AI 학습 데이터의 60% 이상이 합성데이터가 될 것으로 전망한다. 합성데이터 시장은 $422M 규모(CAGR 33.1%)로 성장 중이다. 그러나 뒤이어 다룰 Datagen($70M 투자 후 폐업), Synthesis AI(흡수 합병), AI.Reverie(해체)의 실패 사례가 보여주듯, "생성만으로는 생존할 수 없다." 합성데이터의 가치는 진단과 증명이 결합될 때 비로소 실현된다.

2.4 블록체인 증명: 불변의 품질 기록

세 번째 단계는 시뮬레이션 결과와 품질 지표를 블록체인에 기록하는 것이다. DataBOM(Data Bill of Materials, 2024) 연구는 소프트웨어 SBOM 개념을 데이터 공급망에 적용하여 출처 분쟁 95% 감소를 달성했다. 블록체인은 여기서 단순 암호화폐가 아니라, 데이터의 출처, 품질 검증 결과, 거래 이력을 불변적으로 기록하는 "데이터의 디지털 등기소"로 기능한다.

이 세 단계를 통합하면 다음과 같은 파이프라인이 완성된다.

1

진단 (DataClinic)

가상환경 시뮬레이션으로 데이터 품질 진단, 결손 구간 식별

2

보완 (PebbloSim)

합성데이터로 결손 구간 보완, QDC 3축 품질 검증

3

증명 (Blockchain)

품질 지표 + 시뮬레이션 결과를 블록체인에 불변 기록

핵심 시사점: 개별 기술 각각은 이미 존재한다. Data Shapley는 가치를 평가하고, 합성데이터 도구는 결손을 채우며, 블록체인은 기록을 남긴다. 그러나 "진단 - 보완 - 증명"을 하나의 파이프라인으로 결합하여 시장 거래 가능한 가격표를 만드는 접근은 구조적으로 새롭다.

3. 경쟁 지형 — Ocean Protocol, Anomalo, 클라우드 마켓플레이스

데이터 가치 증명이라는 문제에 각기 다른 각도로 접근하는 기업들이 있다. 이 지형을 "거래 인프라", "품질 모니터링", "합성데이터"의 세 축으로 정리한다.

3.1 클라우드 마켓플레이스: 거래는 있지만 인증은 없다

Snowflake Marketplace(연간 $2B+ 데이터 공유), Databricks Marketplace, AWS Data Exchange는 클라우드 데이터 거래의 사실상 표준이다. 이 플랫폼들은 대규모 고객 기반과 결제 인프라를 갖추고 있지만, 제3자 품질 인증 레이어가 없다. 구매자는 데이터 제공자의 평판에 의존해야 하며, "이 데이터가 내 모델의 성능을 실제로 향상시킬 것인가"에 대한 사전 보증은 존재하지 않는다.

3.2 Ocean Protocol: 선구자의 교훈

Ocean Protocol은 블록체인 기반 데이터 마켓플레이스의 대표적 선구자다. Compute-to-Data(데이터를 이동시키지 않고 연산을 데이터에 가져오는 모델)라는 기술적으로 우아한 접근을 제시했다. 그러나 실거래량은 미미한 수준에 머물러 있다. 핵심 병목은 기술이 아니라 "구매 전 데이터 품질 검증"의 부재였다. 블록체인 위에 마켓플레이스를 올렸지만, 구매자에게 "이 데이터는 쓸 만합니다"를 증명하는 메커니즘은 갖추지 못한 것이다.

3.3 데이터 품질 도구: 모니터링은 하되, 증명은 못 한다

Anomalo, Monte Carlo, Great Expectations 등 데이터 관측성(data observability) 도구는 데이터 파이프라인의 이상을 감지하고 모니터링하는 데 탁월하다. Gartner는 2026 MQ for Augmented Data Quality Solutions에 "데이터 계약 SLA"를 공식 평가 항목으로 포함했다. 그러나 이들은 조직 내부의 품질 유지에 초점이 맞춰져 있으며, "외부 시장에서 거래 가능한 가치 인증"으로 확장하지 못하고 있다.

3.4 합성데이터 기업: $70M 투자도 생존을 보장하지 못했다

합성데이터 시장의 교훈은 극적이다. Datagen은 $70M의 투자를 유치하고도 폐업했다. Synthesis AI는 흡수 합병되었고, AI.Reverie는 해체되었다. 생성형 AI의 급속한 발전이 합성데이터 생성 자체를 범용화시키면서, 단일 기능 도구의 경쟁 우위가 소멸한 것이다. 반면 NVIDIA의 Gretel 인수($320M+, 2025년 3월)는 합성데이터가 더 큰 플랫폼에 통합될 때 비로소 가치를 인정받을 수 있음을 보여준다.

다음 표는 각 접근법의 포지셔닝을 정리한 것이다.

구분 대표 기업 초점 가치 증명
클라우드 마켓플레이스 Snowflake, AWS, Databricks 거래 인프라 부재
블록체인 마켓플레이스 Ocean Protocol 탈중앙 거래 부재
데이터 관측성 Anomalo, Monte Carlo 내부 모니터링 내부 한정
합성데이터 Gretel, Mostly AI 데이터 생성 부재
가치 증명 인프라 페블러스 진단-보완-증명 엔드투엔드

핵심 시사점: 기존 기업들은 거래 인프라, 내부 모니터링, 데이터 생성에 각각 집중한다. "구매 전 품질 검증"이라는 시장의 핵심 병목을 직접 겨냥하는 "가치 증명 인프라" 영역은 사실상 빈 공간으로 남아 있다.

4. 규제가 만드는 시장 — EU AI Act, ISO 5259

데이터 가치 증명은 시장의 자발적 수요만으로 성장하기 어렵다. 그러나 규제가 수요를 강제하는 시점이 다가오고 있다.

4.1 EU AI Act Article 10: 품질 증명이 법적 의무가 된다

EU AI Act Article 10은 고위험 AI 시스템의 학습, 검증, 테스트 데이터에 "관련성, 대표성, 정확성, 완전성"의 증명을 요구한다. 위반 시 최대 매출의 3%(EUR 15M)이 과징금으로 부과된다. 시행일은 2026년 8월 2일로, 보고서 발행 시점에서 약 4개월 앞이다.

이 규제의 파급력은 수치로 확인된다. EU 기업들의 AI Act 대응 관련 투자는 EUR 31B(2024~2027 누적)으로 전망되며, AI Act 준수 솔루션 시장은 2027년 $1.5B에 이를 것으로 예상된다. "데이터 품질을 어떻게 증명할 것인가"는 규제 대응의 핵심 질문이 되고 있다.

4.2 ISO 5259와 산업 표준화

2025년 11월, SGS가 세계 최초로 ISO/IEC 5259-3 인증을 발급했다. AI 학습 데이터의 품질 관리 프로세스에 대한 국제 표준이 인증 체계로 자리잡기 시작한 것이다. Gartner도 "데이터 계약 SLA"를 2026 MQ(Magic Quadrant) 평가 항목에 공식 포함했다. 업계의 자율적 품질 경쟁과 규제의 강제적 요구가 동시에 작동하는 구조다.

4.3 한국 데이터 산업: 수요는 과잉, 기준은 부재

한국 데이터 산업은 25.3조 원 규모(연 11.2% 성장, 한국데이터산업진흥원 2024)에 달한다. 데이터 3법(2020) 이후 법적 기반은 확보되었고, 데이터바우처 사업의 경쟁률은 10.2:1로 수요 과잉 상태다. 한국거래소(KRX)가 데이터 마켓플레이스로의 전환을 추진하고 있지만, 최대 병목은 "데이터 가격 산정 기준의 부재"다. 데이터를 얼마에 팔아야 하는지에 대한 합의된 방법론이 없다.

핵심 시사점: EU AI Act가 데이터 품질 증명을 "하면 좋은 것"에서 "안 하면 과징금을 내는 것"으로 전환한다. ISO 5259 인증 체계의 등장과 Gartner의 MQ 반영은 이 전환이 일시적 규제가 아니라 산업 표준으로 고착되고 있음을 보여준다.

5. 에이전트 경제와 데이터 거래 — x402, 스테이블코인, M2M

데이터 가치 증명의 궁극적 수요자는 사람이 아닐 수 있다. AI 에이전트가 자율적으로 데이터를 사고파는 시대가 다가오고 있기 때문이다.

5.1 에이전트 경제의 규모

MarketsandMarkets에 따르면 AI 에이전트 시장은 $5.1B에서 2030년 $47.1B으로 성장할 전망이다(CAGR 44.8%). McKinsey는 M2M(Machine-to-Machine) 거래 시장을 $150B+(2030년)로 추정한다. Hadfield와 Koh(2025)의 에이전트 경제론은 AI 에이전트가 경제 주체로서 자율적으로 거래하는 미래를 학술적으로 정립했고, Xu(2026)는 블록체인 기반 5계층 아키텍처(DePIN, DID, Account Abstraction)를 제시했다.

에이전트가 자율적으로 데이터를 거래하려면 세 가지 인프라가 갖춰져야 한다.

  • 1 품질 증명 — 기계가 판독 가능한 데이터 품질 인증. 사람이 보고서를 읽고 판단하는 방식은 에이전트에게 통하지 않는다.
  • 2 결제 계층 — x402 프로토콜, 스테이블코인 마이크로페이먼트. "데이터 1건당 0.001 USDC" 수준의 세분화된 거래가 가능해야 한다.
  • 3 신원 확인 — DID(Decentralized Identifier), 블록체인 기반 에이전트 신원 검증. 거래 상대방이 신뢰할 수 있는 에이전트인지 확인해야 한다.

5.2 결제 인프라: 이미 현실이다

에이전트 결제 인프라는 이론이 아니라 현실이다. 2024년 스테이블코인 거래량은 $27.6T로 Visa의 2.2배에 달했으며, 2025년에는 $33T로 성장했다. Coinbase의 x402 프로토콜(2025년 5월 출시)은 HTTP 402 상태 코드를 활용한 M2M 결제를 표준화했고, 2026년 4월 "Upto" 업그레이드로 사용량 기반 동적 과금을 지원한다. Skyfire의 KYAPay(Know Your AI-agent Pay)는 에이전트 신원 검증과 자율 결제를 결합하여 Visa Intelligent Commerce와 연동했다. Stripe Agent Toolkit은 LLM과 결제 인프라를 MCP 서버로 연결한다.

5.3 데이터의 디지털 등기소

결제 인프라(인프라 2)와 신원 확인(인프라 3)은 빠르게 갖춰지고 있다. 그러나 품질 증명(인프라 1)은 여전히 빈 칸이다. 에이전트가 데이터를 구매할 때 "이 데이터의 품질이 인증되어 있는가?"를 기계적으로 확인할 수 있는 표준화된 메커니즘이 없다. 블록체인에 기록된 시뮬레이션 기반 품질 인증, 즉 "데이터의 디지털 등기소"가 이 빈 칸을 채울 수 있다.

에이전트 경제의 구조와 전망에 대한 더 깊은 분석은 페블러스 에이전트 경제 허브에서 다루고 있다.

핵심 시사점: 에이전트 경제에서 데이터 거래의 속도는 밀리초 단위가 된다. 사람이 검토하고 승인하는 방식은 이 속도에 맞지 않는다. 기계가 판독 가능하고, 블록체인에 불변 기록되며, 결제 흐름과 자동으로 연동되는 품질 증명 인프라가 에이전트 경제의 신뢰 기반이 된다.

6. 이 연구가 페블러스에 던지는 질문

본 보고서에서 분석한 기술, 시장, 규제의 세 흐름이 교차하는 지점에 페블러스의 사업이 위치한다. 이 교차점이 구체적으로 무엇을 의미하는지 네 가지 각도에서 살펴본다.

진단-보완-증명: 세 기술의 통합이 만드는 고유한 위치

페블러스 특허(10-2912944)는 DataClinic(데이터 품질 진단), PebbloSim(합성데이터 보완), 블록체인 가치 증명을 하나의 파이프라인으로 결합한다. 앞서 3장에서 확인했듯이, 기존 기업들은 거래 인프라(Snowflake, AWS), 내부 모니터링(Anomalo, Monte Carlo), 데이터 생성(Gretel, Mostly AI)에 각각 집중한다. "진단에서 증명까지"를 엔드투엔드로 수행하는 포지션은 현재 경쟁 지형에서 빈 공간이다.

DataClinic의 가상환경 시뮬레이션은 기존 프로파일링이나 통계 검증이 하지 못하는 "동적 스트레스 테스트"를 수행한다. PebbloSim은 Datagen, Synthesis AI의 실패 교훈 위에서 합성데이터를 "생성 도구"가 아니라 "품질 보완 메커니즘"으로 재정의한다. NVIDIA의 Gretel 인수($320M+)가 보여주듯, 합성데이터는 더 큰 플랫폼에 통합될 때 가치가 있다.

학습 데이터 품질이 모델 성능을 결정한다는 학술적 합의

학습 데이터 100% 중복 시 정확도 40% 급락(Sajith & Kathala, 2024), 6개 품질 차원이 19개 ML 알고리즘에 미치는 체계적 영향(Zhou et al., 2025), AI 프로젝트 80%의 데이터 품질 실패(Gartner) 등 "고품질 데이터 = 고성능 모델"이라는 인과 관계가 확립되었다. DataClinic의 시뮬레이션은 이 인과 관계를 측정 가능한 지표로 전환한다. "이 데이터는 모델 성능을 X% 향상시킬 수 있다"는 정량적 증명이 가능해지면, 데이터에 가격표를 붙이는 경제적 근거가 만들어진다.

고객과 파트너가 직면한 실무 과제

이 분석에서 도출되는 실무적 함의는 네 가지다. 첫째, EU 시장에 진출하는 기업은 2026년 8월까지 고위험 AI 시스템의 데이터 품질 문서화를 완료해야 하며, DataClinic과 블록체인 증명이 Article 10/11 준수의 기술적 백엔드가 될 수 있다. 둘째, Snowflake나 Databricks 등 클라우드 마켓플레이스에 제3자 품질 인증 레이어를 제공하면, 구매자의 "품질 신뢰 부족"(72%) 문제를 해소하는 신뢰 인프라 역할이 가능하다. 셋째, AI 에이전트 개발자에게 기계 판독 가능한 품질 인증은 x402/Skyfire 결제 흐름과 결합되는 "데이터 품질 영수증"이 된다. 넷째, KRX 데이터 마켓플레이스 전환과 데이터바우처 사업(경쟁률 10.2:1)에서 "데이터 가격 산정 기준"의 기술적 해법이 요구된다.

앞으로 탐구해야 할 질문들

파라메타의 "브루프(Broof)" 블록체인 증명서(2025 MOU), 수호아이오의 AI 데이터 소싱 플랫폼(2025 MOU), KISTI와의 AADS 공동연구는 이 비전의 실행 축이다. 그러나 열려 있는 질문도 남아 있다.

  • 시뮬레이션 기반 품질 인증의 결과가 실제 모델 학습 성능과 어느 수준의 상관관계를 보이는가? Reality gap은 어떻게 줄이는가?
  • 블록체인 기반 품질 기록이 x402 결제 흐름과 기술적으로 연동되려면 어떤 표준화 작업이 필요한가?
  • ISO 5259 인증과 EU AI Act Article 10 준수를 동시에 만족하는 최소 요구사항은 무엇인가?
  • 한국 데이터바우처 사업에서 "데이터 가격 산정 기준"으로 채택되려면 어떤 정책적 접점이 필요한가?

데이터 가치 증명은 단일 기술이 아니라 진단, 보완, 증명의 통합이다. 이 통합이 규제(EU AI Act), 시장(클라우드 마켓플레이스), 미래 인프라(에이전트 경제)와 동시에 맞물리는 시점은 지금이다. 페블러스의 과제는 이 교차점에서 기술적 해자를 산업 표준으로 전환하는 것이다.

자주 묻는 질문

데이터 가치 증명, 블록체인, 에이전트 경제에 관한 핵심 질문과 답변을 정리했다.

참고문헌

논문 및 학술 자료

  1. Ghorbani & Zou, "Data Shapley: Equitable Valuation of Data for Machine Learning," ICML 2019. arXiv:1904.02868
  2. Zhang et al., "A Survey on Data Markets," 2024. arXiv:2411.07267
  3. Zhang et al., "A Survey of Data Pricing for Data Marketplaces," 2023. arXiv:2303.04810
  4. Lin et al., "A Comprehensive Study of Shapley Value in Data Analytics," VLDB 2025. arXiv:2412.01460
  5. "Data Valuation for LLM Fine-Tuning: Efficient Shapley Value Approximation," 2025. arXiv:2512.15765
  6. "Towards Data Valuation via Asymmetric Data Shapley," 2024. arXiv:2411.00388
  7. Bauer et al., "Comprehensive Exploration of Synthetic Data Generation: A Survey," 2024. arXiv:2401.02524
  8. "Surveying the Effects of Quality, Diversity, and Complexity in Synthetic Data from LLMs," 2024. arXiv:2412.02980
  9. "A Survey on Tabular Data Generation," 2025. arXiv:2503.05954
  10. Zhou et al., "A Survey on Data Quality Dimensions and Tools for ML," IEEE AITest 2024. arXiv:2406.19614
  11. Sajith & Kathala, "Is Training Data Quality or Quantity More Impactful to SLM Performance?" 2024. arXiv:2411.15821
  12. Anjum et al., "Towards Modeling Data Quality and ML Model Performance," 2024. arXiv:2412.05882
  13. "Blockchain-Enabled Accountability in Data Supply Chain: A DataBOM Approach," 2024. arXiv:2408.08536
  14. Xu, "The Agent Economy: A Blockchain-Based Foundation for Autonomous AI Agents," 2026. arXiv:2602.14219
  15. Hadfield & Koh, "An Economy of AI Agents," 2025. arXiv:2509.01063
  16. "Agent Exchange: Shaping the Future of AI Agent Economics," 2025. arXiv:2507.03904
  17. "Towards Fair and Trustworthy Agent-to-Agent Negotiations," 2025. arXiv:2506.00073
  18. "AI Data Governance — Overlaps Between the AI Act and the GDPR," Journal of Internet Law, 2026.

업계 보고서 및 기업 자료

  1. Grand View Research — 데이터 브로커 시장 $319.2B, CAGR 9.3%
  2. MarketsandMarkets — 데이터 마켓플레이스 플랫폼 $1.8B / 합성데이터 $422M / AI 에이전트 $5.1B~$47.1B
  3. Gartner — 2026 MQ for Augmented Data Quality Solutions
  4. IBM — 저품질 데이터 미국 경제 손실 $3.1T (2016)
  5. Visa Onchain Analytics / CEX.IO — 스테이블코인 거래량 $27.6T (2024)
  6. CB Insights — 순수 데이터 마켓플레이스 유니콘 0개
  7. McKinsey — 데이터 마켓플레이스 실패율 ~70%, M2M 거래 시장 $150B+ 추정
  8. WEF — "Synthetic Data: The New Data Frontier," 2025-09
  9. Coinbase — x402 프로토콜, Agentic Wallets, "Upto" 업그레이드 (2025~2026)
  10. Skyfire — KYAPay, Visa Intelligent Commerce 연동
  11. Stripe — Agent Toolkit, x402 USDC 결제 연동
  12. NVIDIA — Gretel $320M+ 인수 (2025-03)
  13. SGS — ISO/IEC 5259-3 세계 최초 인증 (2025-11)
  14. EU AI Act — Article 10, 11, 99 (시행일 2026-08-02)
  15. 한국데이터산업진흥원 — 데이터 산업 현황 조사 2024 (25.3조 원)
  16. 인공지능신문(aitimes.kr) — 페블러스 특허 10-2912944 보도
  17. AI타임스/디센터 — 파라메타-페블러스 MOU, 수호아이오-페블러스 MOU 보도